Tag Archives: Transparenz

EAID unterstützt die Universal Guidelines on Artificial Intelligence  (UGAI)

EAID unterstützt die Universal Guidelines on Artificial Intelligence  (UGAI)

Die Europäische Akademie für Informationsfreiheit und Datenschutz (EAID) unterstützt die von der Bürgerrechtskoalition „The Public Voice“ am 23. Oktober 2018 vorgelegten „Allgemeinen Leitlinien für die künstliche Intelligenz“ (Universal Guidelines on Artificial Intelligence  – UGAI). Die die Leitlinien werden inzwischen von mehr als 50 zivilgesellschaftlichen Organisationen unterstützt. 

Um den UGAI auch in der deutschsprachigen Öffentlichkeit eine bessere Verbreitung zu ermöglichen, haben wir den Text übersetzt. Für die deutschsprachige Übersetzung beanspruchen wir keine Urheberrechte – für eventuelle Übersetzungsfehler übernehmen wir aber selbstverständlich die Verantwortung.

Wortlaut der UGAI auf der Website von The Public Voice. Hier finden Sie auch ein Online-Formular zur Unterstützung der Leitlinien

Deutscher Text bei The Public Voice

 

Deutsche Übersetzung der UGAI:

Allgemeine Leitlinien für die künstliche Intelligenz 

Vorgelegt am 23. Oktober 2018 in Brüssel, Belgien

Neue Entwicklungen in der Künstlichen Intelligenz verändern die Welt. Die Veränderungen betreffen viele Bereiche, von der Wissenschaft und Industrie bis hin zu Verwaltung und Finanzen. Der Bedeutungszuwachs von KI-Entscheidungen berührt die grundlegenden Rechte auf Fairness, Rechenschaftspflicht und Transparenz. Die Ergebnisse der modernen Datenanalyse haben für die Menschen erhebliche praktische Folgen. Sie wirken sich in den Bereichen Beschäftigung, Wohnen, Kredit, Handel und Strafverfolgung aus. Viele dieser Techniken sind völlig undurchsichtig, so dass der Einzelne nicht weiß, ob er überhaupt Gegenstand einer KI-Entscheidung war und ob die Entscheidung richtig und fair getroffen wurde.

Wir schlagen diese allgemeinen Leitlinien vor, um über das Design und die Verwendung von KI zu informieren und diese zu verbessern. Die Leitlinien zielen darauf ab, den Nutzen der KI zu maximieren, das Risiko zu minimieren und den Schutz der Menschenrechte zu gewährleisten. Diese Leitlinien sollten in ethische Standards einfließen. Sie sollten in nationales Recht und internationale Vereinbarungen übernommen, in die Praxis umgesetzt und beim Entwurf von Systemen berücksichtigt werden. Wir stellen klar, dass die Hauptverantwortung für KI-Systeme bei den Institutionen zu liegen hat, welche solche Systeme finanzieren, entwickeln und einsetzen.

  1. Recht auf Transparenz. Jeder Einzelne hat das Recht, die Grundlage einer KI-basierten Entscheidung zu kennen, die ihn betrifft. Dazu gehört die Kenntnis der in die Entscheidung einfließenden Faktoren, der Verarbeitungslogik und der entscheidungsrelevanten Techniken.
  1. Recht auf menschliche Bestimmung. Jeder Einzelne hat das Recht, dass die ihn betreffenden Entscheidungen letztlich von einem Menschen getroffen werden.
  1. Identifikationspflicht. Die für das KI-System verantwortliche Institution muss der Öffentlichkeit bekannt gemacht werden.
  1. Verpflichtung zur Fairness. Die für den KI-Einsatz verantwortliche Institution muss sicherstellen, dass das KI-System keine ungerechten Verhältnisse widerspiegelt, verzerrte Ergebnisse liefert und keine unzulässig diskriminierenden Entscheidungen trifft.
  1. Folgenabschätzung und Rechenschaftspflicht. Ein KI-System sollte nur eingesetzt werden, nachdem die Zwecke, die Ziele, der Nutzen sowie die Risiken in angemessener Weise bewertet wurden. Institutionen, die KI-Systeme einsetzen, müssen für dessen Entscheidungen verantwortlich sein
  1. Richtigkeit, Zuverlässigkeit und Gültigkeit. Die Institutionen müssen die Richtigkeit, Zuverlässigkeit und Validität von Entscheidungen gewährleisten.
  1. Verpflichtung zur Datenqualität. Die Institute müssen festlegen, welche Daten in die KI-Algorithmen einfließen und sie müssen sicherstellen, dass deren Qualität und Relevanz gewährleistet ist.
  1. Verpflichtung zur Gewährleistung der öffentlichen Sicherheit. Die Institutionen müssen die Risiken für die öffentliche Sicherheit bewerten, wenn KI-Systeme Geräte steuern oder kontrollieren. Sie haben die erforderlichen Kontrollmechanismen zu implementieren, um die Sicherheit zu gewährleisten.
  1. Verpflichtung zur Cybersicherheit. Institutionen müssen KI-Systeme vor Bedrohungen schützen, die sich aus ihrer Vernetzung ergeben.
  1. Verbot der geheimen Profilerstellung. Keine Institution darf ein System zur heimlichen Erstellung von Profilen einrichten oder betreiben.
  1. Verbot des umfassenden Scorings. Kein Staat darf eine allgemeine Bewertung seiner Bürger oder Einwohner einrichten oder betreiben.
  1. Abschaltpflicht. Jede Institution, die ein KI-System betreibt, hat die positive Verpflichtung zur Abschaltung des Systems, wenn die menschliche Kontrolle über das System nicht länger gewährleistet ist.

 

Erläuterndes Memorandum und Referenzen

Kontext

Die Universal Guidelines on Artificial Intelligence (UGAI) weisen auf die wachsenden Herausforderungen durch intelligente Computersysteme hin. Sie enthalten konkrete Empfehlungen zur Verbesserung des Designs von KI-Systemen. Im Kern sollen UGAI die Transparenz und Rechenschaftspflicht für diese Systeme voranbringen und sicherstellen, dass die Menschen die Kontrolle über die von ihnen geschaffenen Systeme behalten. Nicht alle Systeme fallen in den Anwendungsbereich dieser Richtlinien. Unser Anliegen sind jene Systeme, die sich auf die Rechte der Menschen auswirken. Vor allem dürfen diese Systeme keinen Schaden anrichten.

Die Erklärung kommt noch zur rechten Zeit. Regierungen in aller Welt entwickeln politische Vorschläge und schaffen öffentliche und private Institutionen, um die Forschung und Entwicklung von „KI“ zu fördern. Dies hat enorme Auswirkungen auf die Gesellschaft, unabhängig davon, ob und inwieweit die Öffentlichkeit an der Gestaltung und Entwicklung solcher Systeme mitwirkt. Die UGAI sind eine gesellschaftliche Reaktion auf diese Herausforderungen.

Die UGAI wurden auf der Internationalen Datenschutzkonferenz 2018 veröffentlicht, einem der weltweit bedeutendsten Treffen von Technologieführern und Datenschutzexperten.

Die UGAI bauen auf der bisherigen Arbeit von wissenschaftlichen Gesellschaften, Think Tanks, NGOs und internationalen Organisationen auf. Die UGAI beinhalten Elemente der Menschenrechtslehre, des Datenschutzrechts und ethischer Richtlinien. Die Leitlinien bauen auf  etablierten Grundsätzen für die KI-Governance auf und sie schlagen neue Prinzipien vor, die bisher nicht in politischen Rahmenwerken enthalten sind.

Terminologie

Der Begriff „Künstliche Intelligenz“ (KI) ist weit und unpräzise zugleich. Er beinhaltet Aspekte des maschinellen Lernens, regelbasierte Entscheidungsfindung und andere Computertechniken. Es gibt sogar unterschiedliche Meinungen darüber, ob Künstliche Intelligenz überhaupt möglich ist. Die UGAI räumen lediglich ein, dass der Begriff KI im allgemeinen Sprachgebrauch ein breites Spektrum verwandter Themen abdeckt und sie verwenden den Begriff, um die aktuelle Debatte anzuregen. Die Leitlinien versuchen nicht, die begrifflichen Grenzen von KI zu definieren, außer dass die KI einen gewissen Grad an automatisierter Entscheidungsfindung erfordert. Der Begriff „Leitlinien“ folgt der Praxis politischer Festlegungen, die sich in erster Linie an Regierungen und private Unternehmen richten.

Die UGAI enthalten Verpflichtungen für „Institutionen“ und Rechte der „Einzelnen“. Dies ergibt sich aus den fairen Informationspraktiken im Bereich des Datenschutzes. Die UGAI basieren auf dem Schutz des Einzelnen als grundlegendem Ziel. Unter öffentlichen und privaten Institutionen werden diejenigen verstanden, die KI-Systeme entwickeln und einsetzen. Der Begriff „Institution“ wurde anstelle des vertrauteren Begriffs „Organisation“ gewählt, um den dauerhaften und nachhaltigen Charakter der in den Leitlinien festgelegten Verpflichtungen zu unterstreichen. Ein Prinzip richtet sich an „nationale Regierungen“. Der Grund dafür wird im Folgenden erläutert.

Anwendung

Diese Leitlinien sollten in ethische Normen aufgenommen, in nationales Recht und internationale Vereinbarungen übernommen und in die Gestaltung von Systemen integriert werden.

Die Prinzipien

Die Elemente des Transparenzprinzips finden sich in mehreren modernen Datenschutzgesetzen, darunter dem US-Datenschutzrecht, der EU-Datenschutzrichtlinie, der Datenschutzgrundverordnung und in dem Übereinkommen 108 des Europarates. Dieses Prinzip soll eine unabhängige Rechenschaftspflicht für automatisierte Entscheidungen ermöglichen, wobei der Schwerpunkt auf dem Recht der Einzelnen liegt, die Gründe von für sie nachteiligen Entscheidungen zu kennen. Auch wenn es einem Einzelnen in der Praxis vielleicht nicht immer möglich ist, die Grundlagen einer bestimmten Entscheidung richtig zu interpretieren, ist es nicht überflüssig, eine solche Erklärung zu ermöglichen.

Das Recht auf eine menschliche Bestimmung bekräftigt, dass Menschen und nicht Maschinen für automatisierte Entscheidungen verantwortlich sind. In vielen Fällen, wie beispielsweise beim Betrieb eines autonomen Fahrzeugs, wäre es nicht möglich oder praktikabel, eine menschliche Entscheidung vor einer automatisierten Entscheidung einzufügen. Das ändert aber nichts an der Notwendigkeit, die Rechenschaftspflicht zu gewährleisten. Wenn also ein automatisiertes System versagt, sollte entsprechend diesem Prinzip eine menschliche Beurteilung des Ergebnisses vorgenommen werden.

Identifizierungspflicht. Dieses Prinzip reagiert auf die Identifikations-Asymmetrie, die bei der Interaktion zwischen Individuen und KI-Systemen entsteht. Ein KI-System weiß typischerweise sehr viel über eine Person; die Person kennt vielleicht nicht einmal den Betreiber des KI-Systems. Die Identifizierungspflicht bildet die Grundlage für die KI-Verantwortlichkeit, die darin besteht, die Identität eines KI-Systems und der verantwortlichen Institution klarzustellen.

Die Fairness-Verpflichtung erkennt an, dass alle automatisierten Systeme Entscheidungen treffen, die Vorurteile und Diskriminierung widerspiegeln. Aber solche Entscheidungen sollten nicht normativ ungerecht sein. Auf die Frage, was ungerecht oder unzulässig ist, gibt es keine einfache Antwort. Die Bewertung hängt oft vom Kontext ab. Die Fairness-Verpflichtung macht jedoch deutlich, dass eine Bewertung der tatsächlichen Ergebnisse allein nicht ausreicht, um ein KI-System zu bewerten. Auch die normativen Folgen müssen bewertet werden, einschließlich derjenigen, die bereits vor dem KI-Einsatz existierten oder durch ein KI-System verstärkt werden können.

Die Folgenabschätzungs- und Rechenschaftspflicht bezieht sich auf die Verpflichtung, ein KI-System vor und während der Implementierung zu beurteilen. Was die Folgenabschätzung betrifft, so besteht ein zentraler Zweck dieser Verpflichtung darin festzustellen, ob ein KI-System eingerichtet werden sollte. Ergibt eine Folgenabschätzung erhebliche Risiken, wie sie in den Grundsätzen zur öffentlichen Sicherheit und Cybersicherheit beschrieben sind, so sollte das Projekt nicht weiter verfolgt werden.

Die Verpflichtungen zur Genauigkeit, Zuverlässigkeit und Gültigkeit legen die Hauptverantwortlichkeiten fest, die mit dem Ergebnis automatisierter Entscheidungen verbunden sind. Die Aspekte sind sowohl einzeln als auch in der Gesamtschau zu interpretieren.

Das Prinzip der Datenqualität folgt aus den vorhergehenden Verpflichtungen.

Die Verpflichtung zur öffentlichen Sicherheit reagiert darauf, dass KI-Systeme Geräte in der physischen Welt steuern. Aus diesem Grund müssen die Institutionen sowohl die damit verbundenen Risiken bewerten als auch angemessene Vorsichtsmaßnahmen ergreifen, welche den Risiken begegnen.

Die Cybersicherheitsverpflichtung folgt aus der Verpflichtung zur öffentlichen Sicherheit und unterstreicht das Risiko, dass selbst gut gestaltete Systeme das Ziel feindlicher Akteure sein können. Wer KI-Systeme entwickelt und einsetzt, muss diese Risiken berücksichtigen.

Das Verbot der heimlichen Profilbildung folgt aus der Identifizierungspflicht. Ziel ist es, die bei KI-Systemen zunehmend auftretende Informationsasymmetrie zu vermeiden und die Möglichkeit einer unabhängigen Rechenschaftspflicht zu gewährleisten.

Das Verbot des umfassenden Scorings soll dem Risiko begegnen, dass eine Regierung dem Individuum einen einzigen, multifunktionalen Scorewert zuweist. Das Datenschutzrecht beurteilt universelle Identifikatoren, die die Profilerstellung von Personen ermöglichen, negativ. Solche Identifikatoren sind vielfach reguliert und teilweise verboten. Noch größer ist die Sorge im Hinblick auf eine umfassende individuelle Bewertung, die als „einheitlicher Scorewert“ bezeichnet wird. Ein einheitlicher Score spiegelt nicht nur ein umfassendes Profil sondern auch ein vorgegebenes Ergebnis über mehrere Bereiche der menschlichen Aktivität hinweg wider. Es besteht die Gefahr, dass es auch im privaten Sektor zu einheitlichen Scores kommt. Zwar ist denkbar, solche Systeme dem Wettbewerb auf dem Markt und staatlichen Vorschriften zu unterwerfen. Aber da der Einzelne keine Möglichkeit hat, einem von einer Regierung zugewiesenen einheitlichen Score entgegenzutreten, sollten solche Scores verboten werden.

Die Abschaltpflicht ist das ultimative Bekenntnis zur Verantwortlichkeit für ein KI-System. Die Verpflichtung setzt voraus, dass die Systeme unter menschlicher Kontrolle bleiben müssen. Ist dies nicht mehr möglich, sollte das System abgeschaltet werden.

(Übersetzt aus dem Englischen von Peter Schaar unter Verwendung von deepl.com)

Brauchen wir ein neues Datenrecht?

Die Bundesregierung sendet angesichts der Datenaffäre um Facebook und Cambridge Analytica widersprüchliche Signale aus. Während die neue Justiz- und Verbraucherschutzministerin Katarina Barley darauf setzt, dass die ab Mai EU-weit geltende Datenschutz-Grundverordnung (DSGVO) der exzessiven Datennutzung und dem Datenmissbrauch entgegenwirkt, plädiert Kanzleramtschef Helge Braun für ein „neues Datenrecht“.

Das von einer „Daten-Ethikkommission“ innerhalb eines Jahres auszuarbeite Datenrecht solle mehr Transparenz für die Bürger schaffen, kündigte Braun an. „Dem Bürger muss erstmal immer sehr transparent sein, welche Daten er zur Verfügung stellt. Und er muss das grundsätzlich immer sehr einfach und sehr wirksam unterbinden können. Auf der anderen Seite müsse es für die Wirtschaft klare Regeln geben, welcher Umgang mit Daten erlaubt ist und welcher nicht.“

Nachdem sich seine Kanzleramts-Kollegin Dorothee Bär kürzlich dadurch hervorgetan hat, den Datenschutz zu einem Ansatz aus dem 18. Jahrhundert zu erklären, konzentriert sich der Kanzleramtschef auf einen Ansatz, bei dem es weniger um den Schutz des Grundrechts auf informationelle Selbstbestimmung geht, sondern um die Nutzbarmachung von immer mehr Daten. Dies passt zu den Äußerungen von Bundeskanzlerin Angela Merkel, die in letzter Zeit jede positive Bezugnahme auf den Datenschutz peinlich vermeidet, und stattdessen lieber von „Datensouveränität“, „Datenpolitik“, „Dateneigentum“ und „Datenreichtum“ spricht.

Dass es dabei nicht in erster Linie um die Stärkung der Transparenz der Datenverarbeitungsmodelle und um stregere Regeln zum Umgang mit Daten geht, ist anzunehmen. So hat sich die Große Koalition 2017 bei der Novellierung des Bundesdatenschutzgesetzes infolge des Inkrafttretens der DSGVO eher um eine Entschärfung der europaweiten Datenschutzbestimmungen bemüht. Ihr Gesetzentwurf (Bundestags-Drucksache 18/11325) zeichnete sich dadurch aus, die in der DSGVO vorgesehenen Informationspflichten bei der Erhebung und Verarbeitung personenbezogener Daten einzuschränken. Auch die Auskunftsrechte der von der Datenverarbeitung betroffenen Personen sollten beschnitten werden. Dass die vom Bundestag beschlossenen Einschränkungen der Transparenz der Datenverarbeitung weniger gravierend ausfielen, ist nicht zuletzt dem Widerstand von Verbraucher- und Datenschützern zu danken, und war nicht etwa das Ergebnis des Umdenkens in dem für das Gesetzgebungsvorhaben federführenden Bundesministerium des Innern.

Um es zusammenzufassen: Der Umgang mit personenbezogenen Daten ist in der Datenschutz-Grundverordnung umfassend geregelt. Im Hinblick auf die Vorgaben für Internet-Dienste und Telekommunikationsunternehmen ist zwar eine Überarbeitung der bisherigen Regelungen angebracht, aber auch dabei handelt es sich in erster Linie um ein europäisches Thema (ePrivacy). Deutsche Alleingänge machen da wenig Sinn.

Peter Schaar

Montblanc, der Bundestag und Informationsfreiheit

Die sog. „Monblanc-Affäre“ beschäftigt derzeit die Medien (vgl. etwa den Artikel im Berliner Tagesspiegel).

Die eigentliche Angelegenheit liegt schon mehr als sieben Jahre zurück. Im Jahr 2009 war bekannt geworden, dass Abgeordnete  des Deutschen Bundestags einen Teil ihrer jährlichen Pauschale für die Beschaffung von Bürobedarf  für die Anschaffung von Digitalkameras und wertvoller Schreibgeräte verwendet hatten. In den letzten Tagen nannten Medien die Namen von angeblich betroffenen Abgeordneten und die dabei verausgabten Summen – Angaben, die bisher unter Verschluss gehalten worden waren.

Die umstrittene Beschaffung war schon 2009 Gegenstand eines Antrags auf Informationszugang nach dem Informationsfreiheitsgesetz.

Der Deutsche Bundestag verweigerte den Informationszugang zu den Beschaffungsunterlagen. Die Ablehnung des Antrags erfolgte zunächst unter Hinweis darauf, dass dadurch die Betriebs- und Geschäftsgeheimnisse des Lieferanten betroffen sein könnten. Dieses Argument überzeugte mich als damaligen  Bundesbeauftragten für die Informationsfreiheit nicht, wie in dem 3. Tätigkeitsbericht zur Informationsfreiheit auf Seite 46 nachzulesen ist. Insbesondere erschien es mir fragwürdig, ob der Einzelpreis eines Füllers als Geschäftsgeheimnis des Lieferanten anzusehen sei. Schließlich hatte das Bundesverwaltungsgericht bereits im Jahr 2009 klargestellt, dass kein schutzwürdiges Geheimhaltungsinteresse vorliege, wenn die Offenbarung der Informationen nicht geeignet sei, exklusives kaufmännisches Wissen den Konkurrenten am Markt zugänglich zu machen und so die Wettbewerbsposition des Unternehmens nachhaltig zu beeinflussen.

Auch die daraufhin angerufenen Gerichte – bis hin zum Oberverwaltungsgericht Berlin-Brandenburg – folgten nicht dem Argument, dass hier ein Geschäftsgeheimnis gefährdet sei. Allerdings handele es sich bei den begehrten Informationen um Daten, die in  Zusammenhang mit der Wahrnehmung des Bundestagsmandats stünden (§ 5 Abs. 2 IFG). Die Herausgabe dieser Informationen sei deshalb nur mit Zustimmung der betreffenden Abgeordneten zulässig. Der Bundestag hatte daraufhin alle Abgeordneten der 16. Wahlperiode angeschrieben und für den Fall, dass Sie ein oder mehrere Schreibgeräte bzw. Digitalkameras bestellt hätten, um ihr Einverständnis zur Herausgabe der entsprechenden Dokumente aus den Akten ersucht. Lediglich drei der 620 Mitglieder des Deutschen Bundestages hatten sich seinerzeit mit der Weitergabe dieser Informationen einverstanden erklärt.

Die jetzige Diskussion macht deutlich, dass die zahlreichen Ausnahmebestimmungen des Informationsfreiheitsgesetzes auf den Prüfstand gehören. Dazu gehören auch die sehr weit gehenden Privilegierungen der Mitglieder des Deutschen Bundestages und seiner Gremien. So unverzichtbar es ist, den Kernbereich der parlamentarischen Tätigkeit vor Ausforschung zu schützen, so notwendig ist es aber auch, dass Angaben, die in keinem direkten Zusammenhang mit der parlamentarischen Meinungsbildung stehen, in stärkerem Maße als bisher  transparent gemacht werden. Dazu gehören etwa die Kosten von Delegationsreisen ins Ausland oder eben auch die Verausgabung von Sachmitteln. Es bleibt abzuwarten, ob der Deutsche Bundestag, der im nächsten Jahr neu gewählt wird, die Kraft dazu aufbringt, auch in eigener Sache für mehr Durchblick zu sorgen.

 

Public Reporting im Gesundheitswesen: Datenmonopole darf es nicht geben

Das folgende Interview habe ich für das „Spotlight Gesundheit“ (Januar 2016) der Bertelsmann-Stiftung gegeben (Interviewer war Dr. Stefan Etgeton)
Drei Fragen zum Public Reporting im Gesundheitswesen
an den ehemaligen Bundesbeauftragten für Datenschutz und
Informationsfreiheit Peter Schaar

Frage: Ist es legitim, Anbieter im Gesundheitswesen einer öffentlichen Rechenschaftspflicht zu unterwerfen?

Schaar: Selbstverständlich. Die Bereitstellung einer effektiven Gesundheitsversorgung gehört zu den sozialen Mindeststandards, die nach der Allgemeinen Erklärung der Menschenrechte universell zu garantieren sind. Insofern ist die öffentliche Kontrolle darüber, wie Gesundheitsdienstleistungen erbracht werden, erforderlich. Transparenz erleichtert zudem dem medizinische Hilfe suchenden Menschen, sich in voller
Kenntnis der Chancen, Risiken und Kosten für oder gegen eine Therapie
zu entscheiden.
Frage: Wie verträgt es sich mit der Rechenschaftspflicht, dass Daten im Gesundheitswesen zu einem von den Akteuren monopolisierten Gut geworden sind?
Schaar: Gesundheitsdatenmonopole darf es nicht geben. Das gilt für die Qualitätskontrolle genauso wie für die verursachten Kosten. Zudem sind Ärzte, Krankenhäuser und andere Gesundheitsdienstleister gegenüber ihren Patienten rechenschaftspflichtig. Der Anspruch auf Auskunft über die zur eigenen Person gespeicherten Daten gehört zudem zu den unabdingbaren Datenschutzrechten. Wer den Betroffenen entsprechende Angaben vorenthält, handelt rechtswidrig.
Frage: Wenn Patienten die eigentlichen Eigner der Gesundheitsdaten sind, diese also quasi ein öffentliches Gut darstellen – wie lassen sich Datenschutz und Informationsfreiheit hier in Einklang bringen?
Schaar: Mit der aus dem amerikanischen Rechtsraum stammenden Ansicht, Daten als Eigentumstitel zu betrachten, kann ich mich nicht anfreunden. Sie führt dazu, dass die Daten»eigner« meinen, mit den Daten frei hantieren, sie unbegrenzt nutzen oder verkaufen zu können. Unser europäisches Rechtsverständnis sieht in dem Schutz der persönlichen Daten ein Grundrecht – Eingriffe sind nur auf Basis einer expliziten gesetzlichen Erlaubnis oder der ausdrücklichen Einwilligung des Betroffenen zulässig. Deshalb sind die personenbezogenen Gesundheitsdaten auch kein »öffentliches Gut«. Anders sieht es mit anonymen Gesundheitsdaten aus: Wofür eine Klinik ihr Geld ausgibt, wie hoch die Komplikationsrate ist und welche Therapien angeboten werden, sollte öffentlich gemacht werden. Das verhindert der Datenschutz nicht.

Hansjürgen Garstka – Big Data: Auf dem Weg in die Datendiktatur?

Tagungsbericht zum Steinmüller Workshop 2015

Zum dritten Mal trafen sich am 27. Mai Freunde und Kollegen des vor zwei Jahren verstorbenen Datenschutzapologeten Wilhelm Steinmüller in der Europäischen Akademie Berlin, um Fragen der Beziehung von Informatik und Gesellschaft zu diskutieren. Das Thema des diesjährigen Workshops „Big Data: Auf dem Weg in die Datendiktatur“ knüpft an einen Begriff an, den Steinmüller in seinem Lebenswerk „Informationstechnologie und Gesellschaft“ als Synonym für die Gefahren der Informatisierung der Gesellschaft geprägt hatte.

Vollständiger Tagungsbericht (pdf)

Das Grundrecht, nicht bewertet zu werden – Privacy by Default

Wie in der realen Welt stoßen auch im virtuellen Raum Interessen aufeinander, die vielfach nicht vereinbar sind. Urheber und Verlage haben andere Interessen als die Betreiber von Suchmaschinen und sozialen Netzwerken. Nutzer interaktiver Dienste haben den Anspruch auf Schutz ihrer Grundrechte und ihres Selbstbestimmungsrechts nicht nur gegenüber dem Staat, sondern auch gegenüber Unternehmen, die ihre Daten in unvorstellbarem Maß einsammeln und zu Geld machen.

Unternehmen und staatliche Stellen erfahren immer mehr über unsere persönlichen Verhältnisse, Interessen und alltägliche Verhaltensweisen. Und sie ziehen aus den angehäuften Daten Schlussfolgerungen, die teils erhebliche Auswirkungen für die Betroffenen haben: Zu welchen Konditionen ihnen bestimmte Produkte angeboten werden, ob sie kreditwürdig sind, welche Versicherungsprämie sie zu zahlen haben oder ob sie an Bord eines Flugzeuges gelassen werden. Dagegen erfahren die so Bewerteten ziemlich wenig darüber, was mit ihren Daten geschieht, wer sie erhält und mit welchen Verfahren automatisierte Werturteile gebildet werden. Das jüngste Urteil des Bundesgerichtshofs zum Auskunftsrecht gegenüber der SCHUFA verdeutlicht, dass es einfach nicht ausreicht, Transparenz auf die gespeicherten Daten zu beschränken. Vielmehr muss gesetzlich garantiert werden, dass die Betroffenen nachvollziehen können, wie mit ihren Daten umgegangen wird. In einer zunehmend von automatisierten Entscheidungen geprägten Welt kann es nicht mehr hingenommen werden, dass das Geschäftsgeheimnis an einem Algorithmus höher gewichtet wird als das Recht des Einzelnen auf informationelle Selbstbestimmung.

Transparenz ist eine notwendige, jedoch keine hinreichende Bedingung des Selbstbestimmungsrechts im Zeitalter ubiquitärer Datenverarbeitung. Auch heute muss der Grundsatz gelten, im Regelfall nicht automatisiert beobachtet, nicht in seinem Verhalten registriert und nicht bewertet zu werden. Das setzt striktere Regeln darüber voraus, wie Technik in unsere Alltagsgegenstände einzieht. Smart TVs, die unseren Fernsehkonsum registrieren, Spielekonsolen, die unseren emotionalen Zustand aufzeichnen und Kraftfahrzeuge, in denen unser Fahrverhalten und unser Aufenthaltsort registriert wird, stellen die informationelle Selbstbestimmung weitaus stärker in Frage als die klassische, überwiegend sichtbare Videoüberwachung. Wer registriert und beobachtet werden will, den sollte man nicht daran hindern, entsprechende Features freizuschalten. Aber die Voreinstellung muss sein: Keine Beobachtung, keine Registrierung. „Privacy by Default“ – voreingestellter Datenschutz ist angesagt. Entsprechende Ansätze im Vorschlag der Europäischen Kommission in der Datenschutz-Grundverordnung  bieten dafür einen guten Anknüpfungspunkt.

Ihr

Peter Schaar

Informationsfreiheit: Was 2014 ansteht

Die Transparenz staatlichen Handelns bleibt auch im neuen Jahr ein Thema. Ob beim Umgang mit öffentlichen Mitteln, bei der Bankenaufsicht oder im Hinblick auf staatliche Überwachungsmaßnahmen: Geheimniskrämerei ist nicht gut für die Demokratie und sie behindert die rechtsstaatliche Kontrolle staatlichen Handelns. Transparenz ist ohne rechtlich verbu?rgten Informationszugang nicht möglich. Deshalb sind verbindliche rechtliche Anspru?che auf Informationszugang auf der staatlichen und internationalen Ebene erforderlich.

International geht es um die Verankerung der Informationsfreiheit im Völkerrecht, insbesondere durch die Ratifizierung der Tromsö-Konvention des Europarats und den Beitritt weiterer Staaten zur Open-Government-Partnetship:

  • In ihrer Berliner Erklärung vom 20. September 2013 hat die 8. Internationale Konferenz der Informationsfreiheitsbeauftragten zur Stärkung der Transparenz auf nationaler und internationaler Ebene aufgerufen und verlangt die Anerkennung eines Menschenrechts auf Informationszugang im Rahmen der Vereinten Nationen. Anknüpfungspunkt eines solchen vökerrechtlichen Anspruchs könnte Artikel19 des Internationalen Pakts u?ber bu?rgerliche und politische Rechte (Zivilpakt, ICCPR) sein, der festlegt, dass alle Menschen ungehinderte Meinungsfreiheit genießen sollen, einschließlich der Freiheit, sich u?ber Staatsgrenzen hinweg Informationen zu beschaffen, zu empfangen und weiterzugeben
  • Die Chance besteht, dass 2014 die Konvention des Europarats u?ber den Zugang zu amtlichen Dokumenten vom 18. Juni 2009 (Tromsö-Konvention)  , das erste verbindliche internationale Rechtsinstrument wird, in dem Regelungen fu?r das Recht auf Informationszugang bei staatlichen Stellen völkerrechtlich verbindlich getroffen werden. Dazu ist es allerdings notwendig, dass mindestens zehn Staaten die Konventioon ratifizieren. Bisher haben dies jedoch erst sechs Staaten getan (Bosnien und Herzegovina, Ungarn, Litauen, Montenegro, Norwegen und Schweden). Die Bundesrepublik Deutschland gehört zu den Staaten, die der Konvention bisher nicht beigetreten sind. Die neue Bundesregierung hätte hier eine gute Chance, die Informationsfreiheit auf internationaler Ebene ein gutes Stück voran zu bringen.
  • Deutschland ist bisher auch kein Mitglied er Open Government Partnership (OGP), in der sich die teilnehmenden Staaten verpflichten, verbindliche Regeln zur Transparenz und bürgernahen Politik zu schaffen und einzuhalten. Immerhin hat die Große Koalition vereinbart, dass Deutschland der OGP beitreten soll. Dieser Ankündigung müssen bald Taten folgen. Es ist zu hoffen, dass der zuständige Bundesinnenminister hier konkrete Schritte unternimmt.
  • Auch Geheimdienste dürfen sich dem Anspruch auf Transparenz nicht verweigern. Gerade weil ihre Tätigkeit tief in Grundrechtspositionen der Bu?rgerinnen und Bu?rger eingreift, ist auch hier eine öffentlich nachvollziehbare rechtsstaatliche Kontrolle erforderlich. Damit ist es nicht zu vereinbaren, diesen Bereich gänzlich vom Recht auf Zugang auf Informationen auszunehmen, wie dies etwa im Informationsfreiheitsgesetz des Bundes geschieht.

Aber auch in Deutschland bleibt viel zu tun, um Transparenz staatlichen Handelns zu verbessern, wie etwa die Konferenz der Informationsfreiheitsbeauftragten kürzlich festgestellt hat:

  • Der Anspruch auf freien Zugang zu amtlichen Informationen gehört in das Grundgesetz und in die Landesverfassungen. Nur so lässt sich gewährleisten, dass der Informationszugangsanspruch in der Abwägung mit konkurrierenden Rechtsgütern – etwa dem Schutz von Betriebs- und Geschäftsgeheimnissen – nicht auf der Strecke bleibt.
  • Die immer noch bestehenden weißen Flecken auf der Landkarte der Informationsfreiheit – in Baden-Württemberg, Bayern, Hessen, Niedersachsen und Sachsen gibt es immer noch keine Informationsfreiheitsgesetze – müssen endlich geschlossen werden. Die Landesregierungen und -parlamente sollten dabei die Chance nutzen, direkt zu den Ländern mit fortschrittlichen Transparenzregeln – etwa Hamburg – aufzuschließen und sich nicht mit einer Minimallösung begnügen.
  • Die Informationsfreiheitsgesetze des Bundes und der Länder sollten im Sinne eines Transparenzgesetzes mit umfassenden Veröffentlichungspflichten nach den Open-Data-Grundsätzen weiterentwickelt werden.
  • Aus der im Auftrag des Bundestags erfolgten Evaluation des Bundesinforma-tionsfreiheitsgesetzes müssen die notwendigen Konsequenzen gezogen werden. Dabei sollten die zahlreichen Ausnahmeregelungen auf das verfassungsrechtlich zwingend gebotene Maß begrenzt werden.
  • Menschen, die über Rechtsverstöße und Missstände im öffentlichen und nicht-öffentlichen Bereich berichten (Whistle Blower), müssen entdlich auch in Deutschland effektiv vor Diskriminierung und Strafverfolgung geschützt werden.

Für diejenigen, die sich ernsthaft für mehr Transparenz einsetzen, gibt es also allerhand zu tun. Packen wir es an!

Ihr
Peter Schaar