Künstliche Intelligenz und Menschenrechte in Lateinamerika

Analyse

Algorithmen reproduzieren diskriminierende Strukturen und bestehende Machtverhältnisse. KI-gestützte Systeme werden so zur Gefahr für bestimmte Teile der Bevölkerung.

Illustration zu "Die Sichtbarkeit der Unsichtbaren"

Auf Künstliche Intelligenz (KI) gestützte Systeme kommen in den verschiedensten Bereichen zum Einsatz, von der Justiz bis zur Unterhaltungsindustrie. Algorithmen analysieren unsere Konsumgewohnheiten, empfehlen uns daraufhin Fernsehserien oder übermitteln uns Nachrichten und Werbebotschaften. Künstliche Intelligenz greift auch in unsere Grundrechte ein. So gibt es Systeme, die Gerichtsurteile vorformulieren,[1] Diagnosen für einen Patienten vorschlagen[2] oder auch Maßnahmen zur Vermeidung von Schulabbrüchen empfehlen[3]. Während der Pandemie wurden Hunderte von KI-basierten Tools für das Gesundheitswesen entwickelt. Keines davon entsprach jedoch den Erwartungen.

Schadensvermeidung: Kein gutes Geschäft

Wir haben erlebt, wie KI-gestützte Systeme Bewerberinnen um eine Arbeitsstelle aussondern, nur weil sie Frauen sind[4]. Es gibt Fälle, wo Menschen allein aufgrund ihrer dunklen Hautfarbe als kriminell eingestuft werden[5] oder wo Empfänger/innen von Sozialleistungen Betrug unterstellt wird, nur weil es sich um Migrant/innen handelt[6]. Auch werden einzelne Personen aufgrund ihrer Art zu sprechen fälschlicherweise als Menschen mit Handicap eingestuft.[7] Nicht zufällig sind jene Menschen, die durch KI-basierte Systeme diskriminiert werden, nur unzureichend in den Systementwicklungsteams vertreten. Werden Fehleinschätzungen von KI-Systemen sichtbar, beteuern die Programmierer/innen in der Regel, dass sich dahinter keine Absicht verberge, sondern dass Fehler durch maschinelle Lerntechniken anhand großer Datenmengen entstünden. Doch diese Fehler wären vermeidbar, würde man die Risiken und Wirkungen für Bevölkerungsgruppen, die nicht den Entwicklerteams angehören, untersuchen und auch die Qualität der Datengrundlage für das maschinelle Lernen überprüfen. Wir gehen davon aus, dass Daten eine hohe Qualität besitzen, wenn sie eine repräsentative Stichprobe relevanter Informationen enthalten. Irrelevante Störinformationen sollten vor der Schulung von KI-Algorithmen herausgefiltert werden. Durch eine Bereinigung der Trainingsdaten nach klar definierten Zielen werden die Einschätzungen der maschinellen Lernsysteme wirksam gesteuert und eingegrenzt. Der zusätzliche Aufwand für die Entwicklung zuverlässiger KI-Systeme gerät jedoch mit dem Ziel der Kostensenkung in Konflikt, und diese gehört wiederum zusammen mit der Verkürzung von Antwortzeiten und der massenhaften Verbreitung zu den derzeitigen Kernanreizen für die Entwicklung von Künstlicher Intelligenz.

Die Machteliten, die die Entwicklung von KI-Systemen fördern, sind von deren diskriminierenden oder auch gefährlichen Fehleinschätzungen nicht betroffen – vielmehr werden sie in ihren Werten und Gewohnheiten noch bestärkt.

Einer jüngsten Studie zufolge haben von 53 KI-Entwicklern nach eigenen Aussagen 92 Prozent an Systemen mitgewirkt, die für eine bestimmte Bevölkerungsgruppe vermeidbare Beeinträchtigungen mit sich gebracht haben[8]. Solche Systeme sind nicht nur anfällig für Fehler, die ein Mensch niemals begehen würde, sie reproduzieren auch die Datenmuster, mit denen sie gefüttert werden, und diese Daten repräsentieren in der Regel die Gewohnheiten und Werte der herrschenden Gruppen. So stützt sich beispielsweise ein System, das die Abfassung von Gerichtsurteilen erleichtern soll, in der Regel auf frühere Entscheidungen, denn die automatischen Sprachsynthese­systeme werden meist mit vorhandenen Dokumenten trainiert.[9] Dementsprechend werden die erzeugten Schriftsätze den Leserinnen und Lesern sehr vertraut vorkommen. Dies bedeutet jedoch auch, dass darin Wertesysteme und Vorurteile früherer Richter reproduziert werden, und diese Werte unterscheiden sich möglicherweise von denen der Person, die jetzt das Urteil unterzeichnet, oder auch der Mitglieder der heutigen Gesellschaft. Alle KI-basierten Systeme beruhen in ihrer Konstruktion auf den Werten derer, die sie konzipieren.

Der lateinamerikanische Kontext

Viele der bekanntesten Fälle von diskriminierenden Fehleinschätzungen Künstlicher Intelligenz traten im globalen Norden oder in westlichen Konzernen auf. Doch auch Lateinamerika unterliegt den Verzerrungen durch Algorithmen, denn sie basieren auf den Werten der großen nordamerikanischen Technologiemonopole wie Facebook, Google und Microsoft, und diese Werte werden auch von den eigenen lokalen Machteliten geteilt.

Die lateinamerikanische Perspektive wird bei der Erforschung und Entwicklung von KI-Technologien nur unzureichend berücksichtigt. So nahmen 2021 an der Jahrestagung des North American Chapter of the Association for Computational Linguistics (NAACL) über die Verarbeitung der natürlichen Sprache[10] 1.600 Personen aus den USA und Kanada, aber nur 71  aus Lateinamerika teil. Dennoch erhebt die NAACL den Vertretungsanspruch für den gesamten amerikanischen Kontinent. 90 Prozent der Tagungsbeiträge befassten sich mit der englischen Sprache, aber 60 Prozent der Bevölkerung des amerikanischen Kontinents leben in Lateinamerika, und deren Muttersprache ist nicht Englisch. [11]

Wieso ist eine angemessene Repräsentanz wichtig? Denken wir beispielsweise an eine Software zum COVID-19-Impfmanagement. Die Reihenfolge ist nach Prioritäten vorgegeben. Hierzu zählen Alter, arbeitsplatzbezogene Kriterien, Vorerkrankungen und andere Risikofaktoren. Wie aber wird entschieden, wer innerhalb einer bestimmten Prioritätsgruppe zuerst geimpft wird? Legt das System eine alphabetische Reihenfolge fest, so wird beispielsweise im mexikanischen Bundesstaat Jalisco ein Großteil der dort lebenden Nahuatl-Bevölkerung zuletzt berücksichtigt, denn deren Nachnamen beginnen häufig mit X oder Z. Würde die ungleiche alphabetische Verteilung von Nachnamen angemessen modelliert, könnten systembedingte Diskriminierungen vermieden werden.

Eine Berücksichtigung der lokalen Perspektive reicht jedoch nicht aus, um Fehleinschätzungen eines Systems auszuschließen. Auch innerhalb der lateinamerikanischen Gesellschaften gibt es zwischen verschiedenen gesellschaftlichen Gruppen Dynamiken von Diskriminierung und Unterdrückung, und diese Dynamiken können durch automatisierte Systeme gefördert und verschärft werden. Ein gutes Beispiel hierfür ist die Software zur Prognostizierung von Teenager-Schwangerschaften, die in der argentinischen Provinz Salta eingesetzt wurde. Die Software, von Microsoft entwickelt, stützte sich auf die von der Provinzregierung vorgegebene Problem­darstellung. Nach der Prognose des Systems verfügen die jungen Mädchen, bei denen eine Schwangerschaft eher erwartet wird, über ein geringes Einkommen oder sie gehören einer indigenen Bevölkerungsgruppe an[12]. Teenager-Schwangerschaften kommen aller Wahrscheinlichkeit nach aber auch in Familien der Oberschicht von Salta vor, die im Landesvergleich als ausgesprochen konservativ gilt, doch gelangen sie den Gesundheitsbehörden gar nicht zur Kenntnis – Argentinien hat 2021 die Abtreibung legalisiert. Die in Salta eingesetzte Prognosesoftware liefert ein weiteres Beispiel für schlechte Datenqualität, da die Daten für das zu modellierende Phänomen nicht repräsentativ sind.

Ein weiteres Beispiel aus Argentinien ist die Nutzung von Gesichtserkennungssystemen zur Verfolgung entflohener Häftlinge in Buenos Aires[13]. Die Behörden entschieden sich für den Einsatz dieser Systeme, ohne über ausreichende Daten zur Bevölkerung der Stadt zu verfügen und obwohl bekannt war, dass es damit an anderen Orten der Welt zu irrtümlichen Verhaftungen gekommen war. Davon betroffen waren überwiegend dunkelhäutige Menschen. Auch hier stützt sich die KI-Anwendung auf nicht repräsentative Daten und verstärkt damit die rassistischen Vorurteile der Gruppe, die ihren Einsatz vorantreibt.

Eine bessere Zukunft ist möglich

Es werden immer mehr Fälle bekannt, in denen KI-gestützte Systeme für einen Teil der Nutzerinnen und Nutzer gefährliche Fehleinschätzungen vornehmen. Dies liegt zum einen daran, dass Minderheiten bzw. marginalisierte Gruppen bei der Konzeption von KI-Lösungen keine Berücksichtigung finden. Darüber hinaus sind die technologischen Entwicklungen durch Masseneinsatz und Standardisierung aber auch ein Instrument zur Durchsetzung der Werte der herrschenden Gruppen. Wir Lateinamerikanerinnen und Lateinamerikaner, an der Peripherie des globalen Nordens und mit deutlichen sozialen Gegensätzen in der Gesellschaft, sind ganz besonders von den schädlichen Auswirkungen solcher Technologien betroffen, für die es keine spezifischen Regelungen gibt und deren Datenqualität keinerlei Kontrolle unterliegt.

Als lateinamerikanische Forscherinnen zur Künstlichen Intelligenz wissen wir, dass eine Zukunft mit verbesserter Datenqualität und unter Berücksichtigung vielfältiger Perspektiven bei der Konzeption solcher Systeme technisch möglich ist. Insbesondere wenn KI-Systeme in die Grundrechte eingreifen, muss es eine klare Verantwortlichkeit über die Wirkungsweise automatischer Systeme geben.


[1] Estevez, Elsa; Fillotrani, Pablo; Linares Lejarraga, Sebastián (PROMETEA): «Transformando la administración de justicia con herramientas de inteligencia artificial (Umbau der Justizverwaltung mit Hilfe von KI-Tools)», Banco Interamericano de Desarrollo (Interamerikanische Entwicklungsbank), 2020,  doi:10.18235/0002378.

[2] Layes, María Elisabeth Silva, Falappa, Marcelo Alejandro und Simari, G.: «Sistemas de soporte a las decisiones clínicas (Unterstützungssysteme für klinische Entscheidungen)»,- 4to Congreso Argentino de Informática y Salud (4. Argentinischer Kongress über Informatik und Gesundheit), CAIS, 2013.

[3] Urteaga, Ignacio, Siri, Laura, Garófalo, Guillermo: «Predicción temprana de deserción mediante aprendizaje automático en cursos profesionales en línea (Frühzeitige Vorhersage von Bildungsabbrüchen durch maschinelles Lernen in Online-Ausbildungskursen)», in: RIED (Revista Iberoamericana de Educación a Distancia), 23 (2), S. 147-167, 2020.

[4] Dastin, Jeffrey: «Amazon scraps secret AI recruiting tool that showed bias against women», Reuters, 2018. Verfügbar unter:  https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-i… (Zugriff am 07. 09. 2021).

[5] Kade Crockford: How is Face Recognition Surveillance Technology Racist?, American Civil Liberties Union, 2020. Verfügbar unter: https://www.aclu.org/news/privacy-technology/how-is-face-recognition-su… (Zugriff am 07. 09. 2021).

[6] Jon Henley und Robert Booth: «Welfare surveillance system violates human rights (System zur Überwachung der Sozialfürsorge verstößt gegen die Menschenrechte)», Dutch court rules, The Guardian, 2020. Verfügbar unter: https://www.theguardian.com/technology/2020/feb/05/welfare-surveillance… (Zugriff am 07. 09. 2021).

[7] Tomás Balmaceda: «Inteligencia artificial y discapacidad: cuando los algoritmos son herramientas de exclusión (Künstliche Intelligenz und Behinderung: wenn Algorithmen zu Werkzeugen der Ausgrenzung werden)», in: Chequeado, September 2020. Verfügbar unter: https://chequeado.com/investigaciones/inteligencia-artificial-y-discapa… (Zugriff am 07. 09. 2021).

[8] Sambasivan et al: «Everyone wants to do the model work, not the data work: Data Cascades in High-Stakes AI (Alle wollen die Modellarbeit machen, nicht die Datenarbeit: Datenkaskaden in der KI mit hohem Einsatz)», Nr.39, S.1-15, 2021. Verfügbar unter: https://dl.acm.org/doi/10.1145/3411764.3445518 (Zugriff am 20.10.2021).

[9] Pron, Patricio: «Alguien que no está allí habla con alguien que no existe (Jemand, der nicht da ist, spricht mit jemandem, der nicht existiert)», El País, 2021. Verfügbar unter: https://elpais.com/babelia/2021-03-04/alguien-que-no-esta-alli-habla-co… (Zugriff am 07. 09. 2021).

[10] Zu der NAACL-Tagung treffen sich jährlich Forschende aus Amerika und der ganzen Welt, die sich mit der maschinellen Verarbeitung der natürlichen Sprache befassen. In diesem Rahmen wird entschieden, welche Themenbereiche untersucht und welche Instrumente entwickelt werden sollen. Das Forschungsgebiet der Künstlichen Intelligenz beinhaltet derzeit weltweit zwei Hauptthemen: Verarbeitung von natürlicher Sprache und Verarbeitung von Bildern.

[11] Pranav A et al.: «Increasing Financial Accessibility in NAACL (Verbesserung der finanziellen Zugänglichkeit bei NAACL)», North American Association for Computational Linguistics, USA, 2021. Verfügbar unter: https://2021.naacl.org/blog/dni-subsidies/ (Zugriff am 03. 07. 2021).

[12] Slezak, Diego Fernández: «Sobre la predicción automática de embarazos adolescentes (Zur automatischen Vorhersage von Teenagerschwangerschaften)», Laboratorio Interdisciplinario en Inteligencia Artificial (Interdisziplinäres Labor für künstliche Intelligenz), Universidad de Buenos Aires (UBA). Verfügbar unter: https://liaa.dc.uba.ar/es/sobre-la-prediccion-automatica-de-embarazos-a…  (Zugriff am 07.09. 2021).

[13] Gobierno de la Ciudad de Buenos Aires: Rodríguez Larreta presentó el Sistema de Reconocimiento Facial De Prófugos (Stadtverwaltung von Buenos Aires: Rodríguez Larreta (Bürgermeister) stellte das Gesichtserkennungssystem für entflohene Häftlinge vor): «El objetivo es que los vecinos estén más seguros» («Ziel ist eine größere Sicherheit für die Bürgerinnen und Bürger»), Mitteilungen der Stadtverwaltung von Buenos Aires, 2019. Verfügbar unter: https://www.buenosaires.gob.ar/jefedegobierno/noticias/rodriguez-larret… (Zugriff am 07. 09. 2021).


Übersetzung aus dem Spanischen: Beate Engelhardt

Dieser Artikel ist Bestandteil des Dossiers Cybergesetze, Bitcoins und Empowerment: Demokratie und digitaler Wandel in Lateinamerika