Künstliche Intelligenz: Wer trägt die Verantwortung?

Podcast

Wie wollen wir in unserer Gesellschaft mit den Möglichkeiten der Künstlichen Intelligenz umgehen? In vielen Bereichen könnte KI enorme Fortschritte bringen: in der Medizin, im Verkehr, in der Pflege. Aber sie wirft auch große Fragen auf, wie zum Beispiel: Wer übernimmt die Verantwortung, wer haftet?

Künstliche Intelligenz Illustration

"Alexa was steht in meinem Kalender?"
"Heute kommt Bello um 17h vom Tierarzt"
"Alexa setze Hundekuchen und Tennisbälle auf meine Einkaufsliste." 
"Ich setze Tennisbälle und Hundekuchen auf Deine Einkaufsliste.“

Künstliche Intelligenz im Alltag: Amazons sprachgesteuerte Lautsprecherbox Alexa ist eines der bekanntesten Beispiele. Mittlerweile können digitale Assistenten Pizza bestellen, Legal-Bots können helfen Bußgeldbescheide abzuwehren und in amerikanischen Hotelketten wird der Roboter SaviOne als Zimmerservice eingesetzt.

„Your delivery has arrived“

Roboter übernehmen Lagerarbeiten oder unterstützen in der Altenpflege. Durch selbstfahrende Autos und Künstliche Intelligenz in der Mobilität wird sich unser Alltag stark verändern. Noch braucht es meist den menschlichen Input um grundlegende Abläufe zu programmieren und steuern. Aber wie wird sich das künftig entwickeln?

Wie wollen wir in unserer Gesellschaft mit den Möglichkeiten der Künstlichen Intelligenz umgehen?

In vielen Bereichen könnte KI enorme Fortschritte bringen: in der Medizin, im Verkehr, in der Pflege. Aber sie wirft auch große Fragen auf: Wer übernimmt die Verantwortung, wer haftet? Wem gehören all die Daten, die es braucht, damit diese Maschinen lernen? Und wem die Daten, die bei der Nutzung dieser Geräte entstehen?

Im Jahr 2017 macht Saudi-Arabien den Roboter Sophia zum Staatsbürger. Eine intelligente Maschine erhält einen Status, der sonst nur Menschen vorbehalten war. Sophia hat inzwischen auch Angela Merkel getroffen. Sie ist ein humanoider Roboter mit einer Gummimaske, die aussieht wie ein menschliches Gesicht, sie kann einfache Zusammenhänge selbst lernen und ist schlagfertig.

"Are Robots self-aware that they are robots? Well let me ask you this back. How do you know you are human?”

Ein menschenähnlicher Roboter wie Sophia: Das ist faszinierend, aber auch gruselig.

Unsere Vorstellungen von künstlicher Intelligenz sind geprägt von Wesen wie Sophia, Hollywoodfilme spielen damit:  eine Künstliche Intelligenz, eine superintelligente Maschine, die uns Menschen irgendwann überlegen sein wird und uns möglicherweise auslöscht. Auch Unternehmer wie Elon Musk, Chef von Tesla, oder der verstorbene Physiker Stephen Hawking befeuern diese dystopische Sicht und warnen: Künstliche Intelligenz könnte die Menschheit auslöschen.

Eine solche dystopische Sicht wollen gerade in Unternehmen viele nicht teilen. Sebastian Wieczorek, Head of Machine Learning, bei SAP findet, solche Visionen gehen an der Realität vorbei:

Was wir sehen, das ist eine Technologie, die in bestimmten isolierten Bereichen übermenschliche Fähigkeiten entwickelt, genau wie die Dampfmaschine das auch tut, in Bezug auf Kraft, sehen wir das KI-Algorithmen in der Bilderkennung, in einem isolierten Bereich, dass sie bessere, verlässlichere Ergebnisse produzieren können als der Mensch.

Automatisierung sei ein logischer Schritt in der menschlichen Entwicklung, meint Wieczorek. Alle bisherigen Systeme seien abhängig von der Eingabe durch Menschen. Eine starke KI, also eine Maschine, die eigenständig entscheidet, was zum Beispiel betriebswirtschaftlich das Beste für ein Unternehmen ist – gäbe es noch lange nicht.

Wir sind mindestens 50 Jahre davon entfernt ein System zu entwickeln, das selbstbestimmt entscheidet und sich selbstbestimmt eigene Ziele setzten kann. Es gibt sehr viele Leute, die denken, dass es gar nicht möglich ist. Und die pessimistischen Vorstellungen, die wir hören, von Wissenschaftlern und Experten in unserem Unternehmen, dass es mindestens 50 Jahre weg ist. Das heißt, wenn wir über Künstliche Intelligenz heute reden, und KI für die nächsten 2-3 Generationen,  dann reden wir über Automatisierung von Teilschritten.

Auch wenn „Sophia“ so wirkt als sei sie menschlich, letztlich ist sie eine Maschine die bislang stark vom menschlichen Input abhängig ist. Doch klar ist: algorithmische Systeme oder Künstliche Intelligenzen haben schon jetzt Einfluss auf das Leben von Menschen. Zum Beispiel bei der Studienplatz- oder Kreditvergabe, bei der Entscheidung, wo Polizisten Streife fahren, oder sie helfen in der Medizin bei der Diagnose von zum Beispiel Brustkrebs.

Und sie sind oft anfällig. Weil sie, wenn sie lernen, Vorurteile reproduzieren, sagt Clara Hustedt vom Projekt „Ethik der Algorithmen“ der Bertelsmannstiftung. Beispiel Amazon:

Amazon hat vor kurzem den Einsatz eines Algorithmus, der Bewerbungen vorfiltern sollte, beendet. Weil sie festgestellt haben, dass das System Bewerbungen von Frauen systematisch aussortiert hat. Der Algorithmus wurde trainiert über Daten anhand von Daten über die derzeitige Mitarbeiterstruktur und da das vor allem Männer sind , hat das System gelernt, dass das männliche Geschlecht, ein essentieller Erfolgsfaktor für die Arbeit bei Amazon ist.

Worum geht es also bei der Frage nach Verantwortung?

Wenn ein Algorithmus irrt, irrt meistens der Mensch dahinter. KI kann helfen, fairere Bedingungen herzustellen, bessere Diagnosen zu stellen, aber auch Vorurteile zu reproduzieren. Deshalb braucht es Kontrolle dieser Systeme. Carla Hustedt vom Projekt „Ethik der Algorithmen“ schlägt daher eine Art Gütesiegel vor:

„Wir glauben, dass es neben der technischen Expertise auch eine ethische Expertise braucht. Die Idee ist eine Art Professionsethik für Anwender, Programmierer, Datensammler zu entwickeln, ähnlich wie der hippokratische Eid für Ärzte und der Pressecodex für Journalisten.“

Und gerade wenn es um die Frage nach Verantwortung und Haftung geht, müssen wir uns fragen:  Braucht es neue Gesetze? Gibt es im rechtlichen Bereich Handlungsbedarf?  Oder reichen die Regelungen, die wir haben, sogar aus?

Am Anfang der Debatte um rechtliche Regelungen steht vor allem die Frage der Zurechnung, also die Zurechenbarkeit von Maschinenhandeln. Thanos Rammos ist Anwalt für IT- und Medienrecht:

"Da spielt eine Rolle, das autonome Systeme eine Entscheidung treffen und die kann verschiedene Folgen haben. Einmal im Materialgüterrecht, ob eine Maschine Urheber sein kann für schöpferische Leistung.“

Also wenn eine Maschine zum Beispiel neue Daten schafft und damit etwas Neues entsteht – ist sie dann Urheber oder ist es der Datenbankhersteller, für den sie im Einsatz ist? Bislang eine ungelöste Frage.

Ein weiterer Komplex: Vertragsrecht. Thanos Rammos:

„Die Debatte ist dadurch geprägt, dass die Maschine keine eigene rechtliche Erklärung abgeben kann, und damit keinen rechtlichen Bindungswillen erklären kann. Und da wird diskutiert ob man eine E-Person schafft und die dann die Rechtsfähigkeit von Maschinen begründet.“ 

Das kann zum Beispiel dann wichtig sein, wenn ein automatisiertes Warensystem zwischen zwei Unternehmen Waren bestellt und dann autonom entscheidet, jetzt aber mal eine andere Stückzahl zu bestellen – auch da geht es um die Frage, wem ist diese Entscheidung zuzurechnen?

Der dritte Bereich: Haftung. Thanos Rammos: 

"Da geht es darum, wenn ich einen Unfall habe oder eine sonstige Rechtsverletzung, das kann ja auch der Chatbot sein, der sich rassistisch äußert oder der Pflegeroboter keinen Schaden verursacht, den man über zivilrechtliche Haftung gelten machen will. Da stellt sich immer die Frage: Wem rechne ich das zu? Es gibt 3 Parteien: Der Hersteller, der Betreiber und der Anwender des Systems und da muss man sich anschauen was es gibt und es gibt derzeit kein Rechtsinstitut was gut passt."

So wird derzeit in Juristenkreisen beispielsweise über die Erweiterung der Tierhalter Haftung für autonome Systeme diskutiert, da das Tier genauso unkontrollierbare Gefahren ausstrahle wie eine autonomes System.

Thanos Rammos sieht jedoch keinen Bedarf sofort neue Gesetze aufzusetzen. Einzelne Fälle könnten mit bestehendem Recht geregelt werden. Erstmal müsse es eine breite gesellschaftliche Diskussion über dieses kontroverse Thema geben. Thanos Rammos: 

"Eine verfrühte Regelung, die diesen gesellschaftlichen Konsens nicht widerspiegelt, die kann falsch oder fehlgeleitet sein. Was der Gesetzgeber macht, wenn er etwas nicht ausfüllen kann mit gesellschaftlichen, juristischen Konsens ist die Schaffung von Normen mit unbestimmten Rechtsbegriffen. Und dann hat man diese unbestimmten Rechtsbegriffe und die werden über die Zeit ausgefüllt von Behörden oder Gerichten ausgefüllt und das führt dazu, dass der Entscheidungsprozess nach hinten verlagert wird und sehr viel langsamer stattfindet als er hätte stattfinden können - in der parlamentarischen oder sonstigen öffentlichen Debatte."

Wenn es um Künstliche Intelligenz und autonome Systeme geht, ist also eine breite gesellschaftliche Debatte über Kontrollmöglichkeiten, ethische Dimensionen und rechtliche Regelungen unabdingbar. Nicola Jentzsch von der Stiftung Neue Verantwortung hält fest, dass es schon heute möglich ist, von Unternehmen bestimmte ethische Werte wie Transparenz oder Privatsphäre einzufordern - obwohl es beispielsweise oft heiße: wie die KI entscheide, sei ja gar nicht nachvollziehbar:

„Wenn ein Unternehmen sagt, dass es mit transparenten Methoden arbeitet, könnte man gleich fragen, was sie anwenden um die Entscheidungen transparenter zu machen. Ich will ein kleines Beispiel nennen, das ist der Herr Sammek vom Frauenhofer hier in Berlin, der forscht im Bereich Explainable AI, X-Ai abgekürzt. Was er macht ist, dass er die Entscheidung des neuronalen Netzes zurückpropagiert und dann kann er genau sehen und dann kann er quasi genau sehen wo hat bei der Bilderkennung wo hat das neuronale Netz draufgeguckt, das ist eine ältere Dame, die gerade lächelt.“

Es muss also darum gehen, dass nachvollziehbar bleibt, warum bestimmte Systeme eingesetzt werden und es muss klar sein, warum etwas passiert. Prüfbar ist das neue ethisch, sagt Nicola Jentzsch:

„Wir wollen ja den Wettbewerb in eine gute Richtung treiben und Anreize setzen mit ethischen Verfahren erfolgreich zu sein insbesondere wenn wir auf die Konkurrenz im Ausland gucken. Und dann geht es darum wie wir die Anreize setzen, dass diese Art von Innovation erfolgreich wird, weil sonst bleibt die ethische KI ein Nischenprodukt.“

Damit es eben kein Nischenprodukt bleibt, müssen auch die Verbraucher und Verbraucherinnen einen verantwortungsvollen Umgang der Unternehmen mit ihren Daten einfordern, müssen die Unternehmen bereit sein Gütesiegel und Leilinien einzusetzen und muss auch die Politik mit gesetzlichen Vorgaben dafür sorgen, dass Daten überprüft werden können, dass ethische Normen beim Einsatz von  Künstlicher Intelligenz ein wichtiger Faktor werden. Sonst ist die Wahrscheinlichkeit sehr groß, dass Selbstverpflichtungen Lippenbekenntnisse bleiben.

46 Prozent der Deutschen sind unentschieden ob Algorithmen Chance oder Risiko bieten

– das hat eine Studie der Bertelsmannstiftung und dem Umfrageinstitut Allensbach ergeben. Und 73 Prozent der Menschen wollen demnach ein Verbot von Software die ihre Entscheidungen vollautonom trifft.  Eine Vielfalt der KI-Systeme und ein verantwortungsvoller Umgang mit Datensätzen sind für Carla Hustedt vom „Projekt Ethik der Daten“ daher wesentlich, damit KI in der Gesellschaft akzeptiert wird:

„Wir können eine Schadensbegrenzung schaffen, indem wir Vielfalt haben und Monokulturen verhindern und auch nur dann können wir gesellschaftliche Pluralität widerspiegeln. Im Moment passiert das meiste durch immer größer und besser werdende Datensets, aber der Großteil der Daten liegt bei einigen wenigen Konzernen, dh was essentiell ist, wenn wir algorithmische Vielfalt fördern wollen, wir müssen Daten zugänglich machen.“

Auch die Bürger und Bürgerinnen tragen Verantwortung: sich zu informieren, zu hinterfragen, gesellschaftliche Debatten zu verfolgen und zu begleiten. Wie können Algorithmen so eingesetzt werden, dass sie die Gesellschaft unterstützen?  Wie können Kontrollmechanismen aussehen? Welche Leitlinien müssen sich Unternehmen geben? Wie können meine Daten besser geschützt werden?

Daten etwa sind ein ganz wesentlicher Faktor im Geschäft mit Künstlicher Intelligenz, denn eine KI ist nur so gut, wie die Daten mit der sie gefüttert wird.

Wem aber gehören die in den autonomen bzw. automatisierten Prozessen entstehenden Daten? Welche datenschutzrechtlichen Fragen um automatisierte Entscheidungen und KI entstehen? Wer darf die Daten nutzen, die ein Roboter (automatisiert) oder eine KI (autonom) schafft?

Darum soll es in der zweiten Folge dieser Podcastreihe gehen, die dritte Folge schaut dann auf den Forschungsstandort Deutschland und die Bedingungen für Künstliche Intelligenz.

Wenn Sie mehr zum Thema wissen wollen:

Die zivilgesellschaftliche Organisation „Algorithm Watch“ ist eine Plattform, die sich mit der Analyse und gesellschaftlicher Bewertung algorithmischer Entscheidungsfindung beschäftigt.

Die Expertinnen und Experten von netzpolitik.org analysieren ebenfalls die Entwicklungen rund um Künstliche Intelligenz.

Das Projekt „Ethik der Algorithmen“ der Bertelsmannstiftung finden Sie hier. Dort kann man sich zur Zeit an einem Gütekriterienkatalog für algorithmische Systeme beteiligen.