Künstliche Intelligenz: Wem gehören die Daten?

Podcast

Daten spielen für die Künstliche Intelligenz eine zentrale Rolle. Dieser Podcast stellt Fragen wie: Wem gehören all die Daten, mit denen Maschinen lernen, und wie soll mit diskriminierenden KIs umgegangen werden? 

Künstliche Intelligenz: Daten. Illustration von einer Datenkrake

Daten spielen bei Künstlicher Intelligenz eine zentrale Rolle. Denn ein Algorithmus kann nur das wissen, was er vorher aus riesigen Datensätzen gelernt hat. Genau an diesem Punkt stellen sich verschiedene Fragen die unseren Umgang mit diesen Daten und auch deren Schutz betreffen.

Wem gehören all die Daten mit denen Maschinen lernen? Wie soll mit diskriminierenden KIs umgegangen werden? Sind die Verbraucherinnen und Verbraucher durch die Datenschutz-Grundverordnung ausreichend geschützt? Unterliegen Algorithmen einem Firmengeheimnis, oder sollten sie Kontrollinstanzen vorgelegt werden?

Mit diesen und anderen Fragen haben sich die Teilnehmenden der Konferenz „netz:regeln 2018: smart, smarter, autonom“ auseinandergesetzt, veranstaltet von der Heinrich-Böll-Stiftung und dem Branchenverband Bitkom. 

Siri, ich bin müde und möchte etwas gemütliches hören: Musik wird abgespielt

Künstliche Intelligenz im Jahr 2019: Das sind für die meisten User Suchmaschinen wie Google, soziale Netzwerke wie Facebook und Twitter, Entertainmentportale wie Spotify oder Youtube. Aber auch Sprachsteuerungen wie Alexa oder Siri. Allesamt automatisieren sie Entscheidungsprozesse und verbessern sich durch maschinelle Lernvorgänge ständig selbst. Dafür brauchen die Algorithmen dieser KIs unsere Daten. Sie analysieren riesige Datensätze, indem sie Bilder identifizieren oder Statistiken erstelle. Die Ergebnisse daraus werden zu Entscheidungen: Die User bekommen Kaufempfehlungen oder Hörvorschläge. Doch die Konsequenzen der getroffenen Entscheidungen gehen heute schon sehr viel weiter.

Carla Hustedt vom Projekt „Ethik der Algorithmen“ der Bertelsmann Stiftung sagt: Algorithmische Systeme entscheiden bereits heute über das Leben von Menschen:

Sie helfen einem nicht nur den nächsten Film auf Netflix zu finden, oder suchen die Route für den Essenslieferanten. Sondern sie bestimmen eben auch wo Studierende zur Uni gehen, wo Polizisten Streife fahren. Und sie können darüber entscheiden wer einen Kredit bekommt und wer nicht.

Kein Wunder also, dass Künstliche Intelligenz bei vielen Verbraucherinnen und Verbrauchern nicht nur für Faszination sorgt, sondern auch zu Verunsicherung führt. Laut einer repräsentativen Bevölkerungsumfrage der Bertelsmann Stiftung, wissen nur 10% der Deutschen wie Algorithmen funktionieren. 45% haben keinerlei Assoziationen zum Thema. In anderen Worten: Es herrscht ein großes Unwissen in der Bevölkerung. Clara Hustedts Team beschäftigt sich darum mit teilhaberelevanten algorithmischen Anwendungen und analysiert ihre gesellschaftlichen Auswirkungen.

Wenn Künstliche Intelligenz diskriminiert

Tatsächlich ist es nämlich so, dass das größte Problem der algorithmischen Systeme in teilhaberelevanten Bereichen nicht ihre Intelligenz ist, sondern eher ihre Dummheit. Die Fehler die sie machen und die Fehler die die Menschen machen, die diese Systeme gestalten und nutzen. In ganz vielen Fällen liegen die Ursachen für die Fehler oder auch für diskriminierende Mechanismen von algorithmischen Systemen in den Daten. (Carla Hustedt)

Algorithmen skalieren im Guten wie im Schlechten. Sie wirken als Verstärker und können bei fehlerhaften Datensätzen ganze Bevölkerungsgruppen diskriminieren. Davon musste sich 2016 auch Sozialhilfeempfänger in Australien überzeugen. Denn ein neues Computerprogramm sollte ermitteln wer zu Unrecht Arbeitslosengeld oder Sozialhilfe bezogen hat, erzählt Clara Hustedt:

Das dortige Ministerium für Sozialhilfe führte ein System ein, was die Sozialhilfen von Menschen abglich mit Daten beim Finanzamt über Einkommen der Menschen. Daraufhin hat das System- voll automatisiert, kein Mensch zwischengeschaltet- Mahnschreiben an die Menschen rausgeschickt, bei denen es festgestellt hat, dass sie zu viel Sozialhilfe empfangen haben. Sie schulden dem Staat 25 Tausend Australische Dollar, 15 Tausend Euro. Bitte sofort zurückzahlen. Die Effizienzsteigerung, die durch  diese Vollautomatisierung erreicht werden konnte, ist sehr beeindruckend. Aber kurz nach dem Einsatz des Systems wurde festgestellt, dass Zwanzig Tausend dieser Zweihunderttausend Mahnschreiben fälschlicherweise verschickt wurden. An Menschen die entweder sehr viel weniger oder gar kein Geld schuldeten. Die Ursache des Problems ist bis heute nicht geklärt.

Australische Medien nutzten schnell einen neuen Begriff: Robo-Debt, Roboter-Schulden. Betroffene müssen oft Monate kämpfen, um Fehler zu korrigieren.

Diskriminierungsmechanismen in Algorithmen können aber  nicht einfach durch Entfernen dieser sensibler Daten aufgelöst werden. Denn häufig beinhaltet die Art wie wir Probleme definieren und Ziele setzen bereits Werte-Abwägungen, die zu Diskriminierungen führen. Ein gutes Beispiel dafür ist ein KI-System, das vom französischen Bildungsministerium eingesetzt wurde, um Studienplätze besser zuzuteilen. Ein mühsamer Prozess, der die Kriterien der Unis mit den Wunschplätze der Studierenden abgleichen muss. Nach der Klage von Schülerorganisationen wurde der Algorithmus offengelegt und analysiert.

Und was dabei herauskam war: das entscheidende Kriterium bei beliebten Studienplätzen ist nicht etwa ein toller Schulabschluss, sondern die Postleitzahl. Also Studierende die in der Nähe der Uni wohnen, hatten eine bessere Chance angenommen zu werden als solche die weiter weg wohnen. Die guten Eliteunis sind im Zentrum von Paris und wer sich dort eine Wohnung leisten kann, der kommt in der Regel aus einem bessersituierten Hintergrund. Menschen die sowieso schon sozial benachteiligt werden, wurden weiter ausgeschlossen. Diskriminierung hat sich quasi durch die Hintertür wieder eingeschlichen. (Carla Hustedt)

Die Fehlerquellen bei diskriminierenden KIs sind also sehr unterschiedlich. Dementsprechend gibt es auch keine einheitliche Lösung. Aber es wird auch deutlich, dass es Menschen sind, die Ziele definieren und Datensets erstellen.

Wem gehören die Daten?

Über die Eigentums- und Nutzungsrechte an Daten, die von automatisierten Systemen hergestellt werden, herrscht Uneinigkeit.

Susanne Dehmel ist beim Branchenverband Bitkom Mitglied der Geschäftsleitung Recht und Sicherheit und leitet den Bereich Datenschutz.

Grundsätzlich ist es immer so, das wir eigentlich bis heute davon ausgehen, dass Daten als solche erst mal keinem gehören. Wenn sie aber verkörpert sind, wenn sie in einer Datenbank gespeichert sind, oder sich mehrere zusammengetan haben um sie herzustellen, dann kann es sehr wohl sein, dass sie jemandem gehören. Ich kann natürlich faktisch sie besitzen, dass kein anderer darauf zugreifen kann, meistens spricht man in dem Zusammenhang von Nutzungsrechten. Es gibt hier das Urheberrecht, wenn die Daten insgesamt eine ganze Datenbank ergeben. Jenseits von dieser Begrifflichkeit: Wem gehören die Daten, haben wir die Ebene des Datenschutzrechts. das ist ein höchstpersönliches Recht: Ich darf bestimmte Nutzungen eben auch verbieten. Oder ich muss denen zustimmen.

Konstantin von Notz ist Stellvertretender Fraktionsvorsitzender der Fraktion Bündnis 90/ Die Grünen

Die Frage des Eigentums oder des Herrschaftsrechts an Daten ist eine der ganz entscheidenden unserer Zeit, nicht nur im Bereich der KI, sondern eigentlich im gesamten Bereich der Digitalisierung. 

Ich glaube der entscheidende Gedanke ist, dass sich aus der Nutzung von Daten Fragen bezüglich der Selbstbestimmung von Menschen stellen. Insofern geht es gar nicht so sehr um das Eigentum an Daten im zivilrechtlichen Sinne, sondern es geht um die Frage der Nutzungs-Berechtigung und der Frage der Grenzen der Nutzung. Wo beginnt illegitime Diskriminierung? Ich glaube da ist man gerade im Bereich der KI sehr schnell in sehr relevanten heiklen Bereichen, sodass es zwingend eine ziemlich ausdifferenzierten Regulierung bedarf.

Doch wie könnte eine solche Regulierung  aussehen? Und welche neuen gesetzlichen Regelungen sind möglicherweise notwendig?

Ich glaube man muss schon jetzt bei der Frage des Data-Mining und der Nutzung von Datenbeständen sehr genau hingucken ob wir nicht inzwischen in Bereiche kommen, wo die individuelle Freiheit sehr stark eingegrenzt ist, also wo praktisch überall gläserne Wände entstehen, die wir selbst gar nicht erkennen. Sei das bei Bewerbungsunterlagen und Verfahren oder im Bereich von Bank-Kreditwürdigkeits- Einschätzungen und ähnlichem. Häufig ist es für die Verbraucherinnen und Verbraucher nicht transparent und auch nicht fassbar, aufgrund welcher Kriterien sie jetzt eigentlich wie beurteilt worden sind. Und da merkt man sehr schnell: Daten werden dazu genutzt Menschen zu kategorisieren. Wenn wir nicht in einem digitalen Kastensystem landen wollen, dann muss es hier doch klare gesetzliche Regelungen geben über die Zulässigkeit und vor allen auch die Grenzen dieser Datennutzung.

Müssen also Datenschutzregelungen und Datennutzungs-Bedingungen angepasst werden? Oder werden diese ohnehin ausgehebelt, weil die eingesetzten algorithmischen Entscheidungsfindungssysteme für die Verbraucherinnen und Verbraucher intransparent sind? Susanne Dehmel von Bitkom verweist auf die aktuelle Datenschutzgrundverordnung:

Es gibt in der Datenschutzgrundverordnung eine Regelung zu Entscheidungen die automatisiert getroffen werden, die eine rechtliche oder entsprechend starke Wirkung auf mich haben. Und da gibt es eben das Recht, dass ich so einer Entscheidung nicht unterworfen bin, wenn ich das nicht möchte. Und zum anderen haben wir ganz allgemein in der Datenschutzgrundverordnung sehr umfassende Informationspflichten. Ich muss sagen welche Daten ich zu welchem Zweck verarbeite. 

Doch gerade bei lernenden Bilderkennungsprogrammen kann der Zweck der verwendeten Daten nicht immer vorher definiert werden, sagt Susanne Dehmel. Bei einer strengen Auslegung des Gesetzes müsste aber genau das passieren.

Der Ausweg aus dem Ganzen ist, dass man halt so was nach Möglichkeiten anonymisiert. Also wenn der Personenbezug weg ist, dann ist das alles ja auch nicht mehr ganz so kritisch für den Einzelnen. Das ist aber nicht so leicht getan wie gesagt. Das hat oft eine Beeinträchtigung der Datenqualität zur Folge. Und manchmal ist es auch schwierig das so zu machen, dass es wirklich nicht umkehrbar ist. 

Regulierung oder Selbstregulierung?

In Fachkreisen kommt immer wieder die Frage auf ob eine staatliche Regulierung von Künstlicher Intelligenz überhaupt noch der richtige Ansatz ist. Denn die europäische Gesetzgebung laufe dem rasanten Entwicklungstempo stets hinterher. Als Zukunftsmodell schlagen wirtschaftsfreundliche Experten darum ein Systeme der “regulierten Selbstregulierung” vor. Forscher, Entwickler und Unternehmer trafen sich 2017 im kalifornischen Asimolar um einen Katalog ethischer Richtlinien zu verfassen: Die Asimolar Guidelines for AI. Die Deutsche Telekom hat bereits ethische Richtlinien veröffentlicht; Amazon, Facebook, Google, IBM und Microsoft haben ein Partnership On IA gegründet. Doch reicht solch eine freiwillige Absichtserklärung der Industrie aus? Konstantin von Notz erteilt diesem Modell eine klare Absage:

Selbstregulierung hat in den allerwenigsten Bereichen jemals funktioniert. Ist übrigens auch eine Vermischung von staatlichen und wirtschaftlichen Sphären. Ich bin ein liberaler Mensch und ich finde das Unternehmen Entwicklungsspielräume brauchen. Aber der Staat hat eben auch ein Gestaltungsauftrag. Das erwarten die Menschen von ihm zu Recht. Und Deutschland ist eigentlich nie schlecht damit gefahren, dass wir ein Land sind, das relativ viel reguliert. Wir haben für jede Schraube und für jedes Lämpchen irgendeine DIN-Norm. Wir sagen ja auch nicht: Sicherheit ist ein Nice to Have-Feature. Wer das will, der muss halt 3000 Euro für einen Airbag bezahlen pro Auto plus, sondern wir schreiben es gesetzlich vor. Weil wir finden, dass die Menschen geschützt sein müssen im Auto. Ich finde die Menschen müssen auch im Netz geschützt sein und ihre Privatsphäre muss geschützt sein. Deswegen hat der Staat hier auch die Pflicht nicht alles zu regulieren, aber einen bestimmten Standard zu setzen und dafür zu sorgen, dass sich Unternehmen daran halten.

Ist die EU also für den nächsten Entwicklungsschritt der Künstlichen Intelligenz rechtlich und regulatorisch gerüstet? Oder sollte gar ein gänzlich neuer und präziserer Gesetzesrahmen geschaffen werden? Das ist nicht nötig, meint Susanne Dehmel von Bitkom. Denn auch wenn die Datenschutzgrundverordnung noch unbestimmte Rechtsbegriffe enthalte; das Gesetz sei insgesamt ein mächtiges Regelungsinstrument und garantiere Rechtssicherheit EU-weit.

Es kommt so ein Bisschen drauf an, dass wir die bestehenden Gesetze jetzt mit Augenmaß anwenden auf die neuen Technologien und gucken: Führt uns das zu sinnvollen Ergebnissen? Also: Schaffen die das die Balance zu halten zwischen den unterschiedlichen Interessen? Wenn das funktioniert, dann kann man damit arbeiten mit der einen oder anderen Anpassung. Weil wir eben durch den Datenschutz die Sammlung von Daten schon im Grundsatz sehr stark begrenzen. Und das haben wir in anderen Regionen der Welt nicht so. Ich bin auch jemand der der Ansicht ist: Nicht immer gleich ein neues Gesetz, sondern durchaus auch gucken: Wie kriegt man die bestehenden Gesetze in der neuen Umgebung durchgesetzt? Die Aufsichtsbehörden im Datenschutz sind alle viel zu knapp ausgestattet. An solchen Punkten müssen wir viel stärker arbeiten.

Eine Stärkung von bereits bestehenden Kontrollinstitutionen schlägt auch Carla Hustedt von der Bertelsmann Stiftung vor. Doch damit sei es nicht getan. Datensicherheit und die Förderung algorithmischer Vielfalt sei eine gesamtgesellschaftliche Aufgabe. Eine Debatte über den Einsatz von Künstlichen Intelligenzen die diskriminieren oder Persönlichkeitsrechte verletzen ist ein Anfang.

Deshalb müssen wir uns fragen: Was sind eigentlich die Systeme die das Leben von Menschen berühren, wo wir eine stärkere Kontrolle brauchen? Und dann müssen wir schauen: Gibt es in diesen Bereichen evtl. schon Kontrollinstitutionen? Wir müssen schauen ob die bestehenden Institutionen noch ihren Aufgaben gerecht werden können. Ob sie personell, finanziell oder auch rechtlich gestärkt werden müssen. Wichtig ist auch hier- das sieht man in Deutschland- der Aufbau zivilgesellschaftlicher Watchdog-Organisationen, die auch eine wichtige Rolle haben. Nicht nur in der Kontrolle, sondern auch im Wissenstransfer zur Bevölkerung. Ein drittes Handlungsfeld: Wir müssen Vielfalt algorithmischer Systeme schaffen. Auch nur dann können wir gesellschaftliche Pluralität überhaupt widerspiegeln.

Das Problem: Momentan passiert das Meiste in der Entwicklung algorithmischer Systeme durch immer größer und besser werdende Datensets. Der Großteil dieser Daten liegt jedoch bei einigen wenigen Konzernen. 75% des Online -Webtraffics passiert über Anwendungen von Google und Facebook. Eine Förderung algorithmischer Vielfalt könne nur funktionieren, wenn die Daten zugänglich gemacht werden, meint Clara Hustedt. Doch die Tech-Giganten lassen sich nicht gern in die Karten schauen und verweisen auf das Geschäftsgeheimnis. Die sogenannte Datenethikkommission der Bundesregierung will bis Herbst 2019 Leitlinien auf die wichtigsten ethische und rechtliche Fragen im Einsatz von Algorithmen und Künstlicher Intelligenz erarbeiten. Könnte solch eine Kommission eine mögliche Kontrollinstanz sein? Sabine Dehmel von Bitkom ist skeptisch.

Ich finde es schwierig da umfassende Herausgabepflichten oder was auch immer festzulegen. Es gibt eine Reihe von Regeln was ich transparent machen muss, nach dem Datenschutzrecht. Da steckt schon jede Menge drin. Einiges davon muss ich öffentlich machen, anderes muss ich nur der Datenschutz-Aufsicht zeigen oder erklären können. Ich glaube wenn man das umfassend nutzen würde, wäre da schon viel erreicht. Die reine Offenlegung von Daten oder Algorithmen, weiß ich gar nicht ob das immer Zielführend ist. Ich muss halt erklären können, warum ich welche Systeme einsetze und was die Datenbasis ist. Aber ob wir jetzt da dringend neue Aufsichtsgremien brauchen, da bin ich mir nicht sicher.

Konstantin von Notz stellt der im Mai 2018 in Kraft getretenen Datenschutz-Grundverordnung ein gutes Zeugnis auch. Sie garantiere einen höheren Schutz personenbezogener Daten. Bestehende Lücken sollen bald durch die E-Privacy- Verordnung geschlossen werden.

Die Datenschutz-Grundverordnung ist das große Stück ernsthafter legislativen Arbeit der letzten Jahre in dem Bereich, der sich diesem Anspruch stellt die Digitalisierung zu gestalten, und das heißt nicht dass alles perfekt ist bis auf die letzte Falte. Aber Verbraucherinnen und Verbraucher haben mehr Rechte bekommen. Es gibt mehr Transparenz. Die Unternehmen werden stärker reguliert, und jetzt kommt noch die E-Privacy Richtlinie und vervollständigt hoffentlich dieses Bild. Aber am Ende des Tages ist das eben ein fortwährender Prozess. Die Entwicklungen sind so schnell, und jetzt gerade die Künstliche Intelligenz ist so hoch dynamisch, dass man nach diesem Stück harter legislative Arbeit gleich das nächste Stück beginnen muss. Insofern die Datenschutz-Grundverordnung ist ein Erfolg. Aber wir dürfen uns nicht ausruhen wir müssen weitermachen.

Damit endet die dritte und letzte Folge unserer zweiten Podcast-Reihe über Künstliche Intelligenz. Mit dem Thema Werte und Verantwortung im Zusammenhang mit KI beschäftigt sich der erste Podcast unserer Serie. In der zweiten Folge geht es um den Standort Deutschland. Diese Serie sowie alle Podcasts der Heinrich-Böll-Stiftung können Sie auf Soundcloud, Spotify, I-Tunes abonnieren. Bewerten Sie uns gerne und empfehlen Sie uns weiter! Vielen Dank fürs Zuhören. Mein Name ist Lukasz Tomaszewski.