29.10.2020: Neue Herausforderungen für die Konzeption von Datenschutz und Informationsfreiheit

Tagung der Europäischen Akademie für Informationsfreiheit und Datenschutz in Berlin am 29. Oktober 2020

Fünfzig Jahre nach der ersten gesetzlichen Regelung in Deutschland scheinen Datenschutz und Informationsfreiheit endlich in der Mitte der Gesellschaft angekommen zu sein. Nicht zuletzt die EU-Datenschutzgrundverordnung mit ihrem breiten Anwendungsbereich, ihrer quasi-weltweiten Geltung und zugleich weltweiten Vorbildfunktion kann dafür als Zeichen gesehen werden.

Gleichwohl reißt die Kritik nicht ab: Das Schutzgut sei unklar, ebenso die Grenzen des Anwendungsbereiches, Phänomene und Entwicklungen wie „Profiling“, „Künstliche Intelligenz“ oder „algorithmische Entscheidungssysteme“ seien nicht abgedeckt, datenschutzfreundliche Techniken fassen keinen Fuß in der Praxis. Anstelle des Datenschutzes wird nach der Regulierung von „Algorithmen“ gerufen. Der Informationsfreiheit scheint es nicht besser zu gehen: Mal wird sie als inkompatibel mit dem Datenschutz bezeichnet, Informationsfreiheitsgesetze werden, wo es sie überhaupt umfassend gab, zunehmend wieder eingeschränkt, die Diskussion sei längst bei „Open Data“ und freier Datennutzung angekommen.

Die Europäische Akademie für Informationsfreiheit und Datenschutz (EAID) will die Grundfragen des Datenschutzes und der Informationsfreiheit auf einer interdisziplinären Tagung neu stellen und diskutieren. Es geht darum, wie Datenschutz und Informationsfreiheit in einer Gesellschaft, in der die Digitalisierung seit Jahrzehnten alle Lebensbereiche erfasst und grundsätzlich umgestaltet hat, zukunftsfähig gemacht werden können und sollen.

Datenschutz

Ist Datenschutz die „Kehrseite der Datenverarbeitung“ (Steinmüller)? Was ist es dann, was Datenschutz schützt? Daten? Informationen? Vor Daten – als „Verdatungsschutz“ (Fiedler)? Die „informationelle Selbstbestimmung“ als Selbstbestimmung unter den Bedingungen der „Informatisierung der Gesellschaft“ (Nora/Minc) oder als Kontrolle über die „eigenen“ Daten (Westin) – als Grundlage der Demokratie (BVerfG) oder als marktfähige Güter (Posner)? Die Persönlichkeitsrechte (§ 1 BDSG-alt) oder alle Grundrechte und Grundfreiheiten (Art. 1 Abs. 2 EU-DSGVO)? Die gesellschaftlich akzeptable Gestaltung der Informationsverarbeitung – als „Systemdatenschutz“ (Podlech, Roßnagel)? „Privacy“, „Privatheit“ oder „Privatsphäre“? Vor „Dataveillance“ (Clarke), dem „digitalen Überwachungsstaat“ (Strittmatter) oder dem „Überwachungskapitalismus“ (Zuboff)?

In welchem Zusammenhang steht das Schutzgut des Datenschutzes mit „personenbezogenen Daten“? Sind diese Daten notwendige und zugleich hinreichende Bedingung für eine Gefährdung der betreffenden Schutzgüter? Oder gibt es solche Gefährdungen auch, wenn anonyme, statistische, synthetische oder Sachdaten verarbeitet werden? Ist die Fixierung auf „personenbezogene Daten“ für die Konzeption eines modernen Datenschutzes überholt?

Wie lassen sich andere Entwicklungen, die derzeit gesellschaftliche Debatte bestimmen, in die Datenschutzkonzeption einbinden? Was ist mit der zunehmenden Algorithmisierung, der verbreiteten Übertragung von „Entscheidungen“ auf Informatiksysteme oder der Einsatz von KI-Techniken wie Machine Learning, Natural Language Processing / Generation oder Robotics? Und muss Informationssicherheit nicht schon immer mitgedacht werden – mit ihren Schutzzielen Vertraulichkeit, Integrität und Verfügbarkeit, ob bei technischen Infrastrukturen, Daten oder selbst Nachrichten?

Welcher Regelungsinstrumente bedarf es für eine wirkungsvolle Umsetzung des Datenschutzes im Recht? Wie kann das Recht die Entwicklung und den Einsatz von Schutztechniken vorantreiben, gerade auch jenseits von klassischen IT-Sicherheitstechniken? Und wie können solche technischen Lösungen, etwa „privacy-enhancing technologies“ (PETs), aussehen und gestaltet werden?

Oder bedarf es einer neuen grundsätzlichen Analyse der gesellschaftlichen Informationsverarbeitung, bevor Schutzgüter, rechtliche Anknüpfungspunkte, Regelungsinstrumente und Umsetzungstechniken bestimmt werden können?

Informationsfreiheit

Gibt es ein explizites Schutzgut der Informationsfreiheit, oder handelt es sich nur um ein Mittel, das auf ganz unterschiedliche Zwecke zielt? Ist es schlicht ein Transparenzmechanismus gegenüber sozial mächtigen Akteuren wie dem Staat? Auch gegenüber (informations-)mächtigen Privaten? Ist das Schutzgut Kontrollierbarkeit oder Accountability? Oder (auch) die private oder gesellschaftliche Verwertbarkeit der Daten, die diese Akteure gesammelt haben und zur Verfügung stellen sollen?

Was folgt daraus für die Wahl der Instrumente? Die Diskussion beschränkt sich längst nicht mehr auf die klassische Informationsfreiheit als Mittel zum Abrufen, sondern verlangt unter dem Schlagwort „Open Data“ das aktive Zurverfügungstellen von Daten. In drei Bundesländern (Hamburg, Rheinland-Pfalz und Thüringen) schreiben Transparenzgesetze dies bereits vor. Aber reicht das noch in einer Zeit, in der längst klar ist, dass mit „rohen Daten“ allein nichts anzufangen ist? Braucht es neben offenen Daten auch eine Offenlegung der den Daten zugrundeliegenden Modellannahmen – „Open Models“? Und was ist mit den Programmen, mit denen die Daten verarbeitet und zur Entscheidungsfindung genutzt werden – müssen die im Sinne von „Public Money, Public Code“ (Kampagne der Free Software Foundation Europe) auch offengelegt werden? Können nur offene Programme – „Open Source“ – überhaupt als vertrauenswürdig gelten? Bedarf es „Bürgerinformationssysteme“ (Lenk) oder „Bürgerportale“ (Roßnagel), die es Menschen erlauben, einfach an die Informationen zu kommen oder mit der anderen Seite zu kommunizieren? Muss das gleiche nicht auch für Maschinen-zu-Maschinen-Kommunikation gelten – mit „Open Interfaces“? Und wie ist für die Sicherheit zu sorgen?

Welcher Regelungsinstrumente bedarf es für eine wirkungsvolle Umsetzung der Informationsfreiheit im Recht? Wie kann das Recht die Entwicklung und den Einsatz von Informationsfreiheitstechniken vorantreiben, die mächtige Akteure wie den Staat transparent, berechenbar, rechenschaftspflichtig und intervenierbar machen? Sollte das auch – und wenn ja, wie – für private Akteure gelten, etwa Hersteller, Verkäufer oder Dienstleister? Und wie können solche „transparency-enhancing technologies“ aussehen und gestaltet werden?

Einreichung von Beiträgen

Hiermit laden wir Sie zur Einreichung von Beiträgen aus rechtswissenschaftlicher, ökonomischer, sozialwissenschaftlicher, informatischer, kulturwissenschaftlicher, philosophischer und anthropologischer Perspektive ein. Der Vortrag auf der Tagung soll 15 Minuten nicht überschreiten, gefolgt von einer 15-minütigen Diskussion. Bitte senden Sie Ihren Abstract von bis zu 1.000 Wörtern und eine kurze Information zu Ihrer Person bis zum 15. Mai 2020 an die Organisatoren der EAID, Prof. Dr. Alfred Büllesbach (alfred.buellesbach@t-online.de) und Dr. Jörg Pohle (joerg.pohle@hiig.de).