Während in Europa die Gesichtserkennung im öffentlichen Raum (in Echtzeit) durch die EU-Verordnung zur künstlichen Intelligenz höchstwahrscheinlich verboten wird, wird die Technologie in brasilianischen Städten wie Salvador bereits eingesetzt. Ihre Kritiker*innen haben es schwer.
Hinweis: Die Links im Text führen ausschließlich auf portugiesischsprachige Seiten.
Bei einer kurzen Internetrecherche zum Thema Gesichtserkennung werden die Vorteile dieser Technologie zur Identitätsfeststellung auf Flughäfen, in Hotels, in Gebäuden oder an anderen Orten gepriesen. Viele Artikel heben die Bedeutung des Einsatzes von Gesichtserkennung in der öffentlichen Sicherheit hervor, um flüchtige oder polizeilich gesuchte Individuen zu identifizieren. Im brasilianischen Bundesstaat Bahia hat das dortige Amt für öffentliche Sicherheit (SSP-BA) als eines der ersten staatlichen Stellen Gesichtserkennungstechnologien begonnen. Landesweit werden nun die meist positiven Berichte des SSP-BA über die Wirkung der Technologie verfolgt, so zB dass gesuchte Täter dank der Kameras im öffentlichen Raum auf frischer Tat ertappt und gefasst werden konnten. Gleichzeitig kritisieren Beträge zur rechtlichen Debatte den Einsatz der Gesichtserkennungstechnologie und fordern ein Verbot oder zumindest eine Einschränkung dieser Technologie in Brasilien als auch weltweit. Warum sollte man eine Technologie verbieten, die doch so erfolgreich zu sein scheint?
Wie funktioniert der Einsatz von Gesichtserkennung in der öffentlichen Sicherheit?
Die Gesichtserkennungssysteme (GES) verwenden Algorithmen, um Personen anhand ihrer Gesichtsmerkmale zu identifizieren und ihre Identität zu prüfen. Das notwendige Bildmaterial kann aus Fotos oder Videos stammen, auf Basis derer einzigartige Merkmale (wie die Gesichtsform, der Abstand zwischen den Augen und die Länge der Nase) verarbeitet werden und ein biometrischer Datensatz erstellt wird. Diese Merkmale werden mit anderen in einer Datenbank gespeicherten Daten abgeglichen, um Übereinstimmungen zu finden. In der öffentlichen Sicherheit wird hierfür die Datenbank von verdächtigen oder flüchtigen Personen genutzt.
Warum sollte die Technologie verboten werden?
Natürlich kann es auf den ersten Blick übertrieben wirken, eine neue Technologie sofort und komplett auszubremsen. Ist es nicht rückschrittlich, eine Innovation verbieten zu wollen und sich so der Entwicklung des technologischen Fortschritts in den Weg zu stellen? So einfach ist es aber leider nicht: Der Einsatz von Gesichtserkennungstechnologien in der öffentlichen Sicherheit birgt auch ernstzunehmende Risiken.
Ein häufiges Argument für die Verwendung der Gesichtserkennung ist die Einfachheit und Präzision, mit der polizeilich gesuchte Individuen lokalisiert werden können. Mit dieser Technologie und mithilfe der in der Stadt verteilten Kameras steigen die Chancen, flüchtige oder straftatverdächtige Personen zu finden. Hier folgen einige Beispiele:
Anders als man annehmen könnte, ist die Gesichtserkennung keine sichere Ersatzlösung für die Identifizierung von Verdächtigen durch einen Menschen. Die Maschine macht (häufig) Fehler, die zu unrechtmäßigem Freiheitsentzug und Haft führen können. So zum Beispiel 2019 in Rio de Janeiro, als bei einer Polizeioperation im Maracanã-Stadion 11 Personen basierend auf dieser Technologie festgenommen wurden, von denen sieben Personen fälschlich von der Maschine identifiziert wurden (63% der Fälle). Im Jahr 2021 wurde ein Maurer aus Piauí mit einem Kreditkartenbetrüger aus Brasília verwechselt und in einer harschen Vorgehensweise von der Polizei in seiner Wohnung aufgesucht. Ohne Erklärung wurde er in einen anderen Bundesstaat überführt und blieb dort drei Tage in Haft, bis die Polizei ihren Fehler eingestand. Solche Fälle kennt man nicht nur in Brasilien: In Detroit, USA, gab ein lokaler Polizeichef an, dass das für eine Million US-Dollar durch die Stadt erworbene Gesichtserkennungsprogramm DataWorks Plus eine Fehlerquote von fast 96% habe.
Untersuchungen haben gezeigt, dass die Fehlerquoten der Systeme bei Frauen besonders hoch sind, insbesondere bei Schwarzen Frauen. Die Algorithmen fördern zudem durch die Art, wie sie entwickelt werden, die Ausgrenzung von nicht- binären und trans* Menschen. Im Falle der in Brasilien gemeldeten Fehler dieser Systeme gibt es darüber hinaus eine Gemeinsamkeit: Die Mehrheit betrifft People of Color. Mehr als 90% der durch Gesichtserkennungstechnologien festgenommenen Personen sind Schwarz. Die systematischen Fehler in der Gesichtserkennung hängen direkt mit der fehlenden Diversität in den Datenbanken zusammen, mit denen diese Technologie trainiert wird.
Selbst wenn die Präzision der Systeme verbessert wird, ist unseres Erachtens ein Verbot dieser Technologie notwendig, um der konstanten Überwachung des öffentlichen Lebens entgegenzuwirken. Der Einsatz von Gesichtserkennungssystemen erfordert, dass die Bewegung der Menschen in der Stadt durchgehend nachverfolgt werden kann und so ein Zustand der dauerhaften Überwachung der Bürger*innen stattfindet. Diese Überwachung bietet vielfältige Möglichkeiten für gravierenden Missbrauch, wie er von zum Autoritarismus neigenden Staaten bereits begangen wird.
In China wurden beispielsweise die Teilnehmenden von Demonstrationen durch intelligente Kameras und andere Überwachungsinstrumente identifiziert und nach den Protesten durch Anrufe und Besuche der Polizei eingeschüchtert. Die Einführung von Gesichtserkennungssystemen in der öffentlichen Sicherheit droht, in der sich noch konsolidierenden Demokratie Brasilien Raum für gravierende Menschenrechtsverletzungen zu schaffen. Das brasilianische Allgemeine Datenschutzgesetz (LGPD) besagt ausdrücklich, dass die Verarbeitung von Daten für die öffentliche Sicherheit durch ein speziell für diesen Zweck formuliertes Gesetz geregelt werden muss. Der Einsatz dieser Technologie, die bedenkliche und gravierende Risiken für die Grundrechte aufweist, bewegt sich, solange solch eine Regelung nicht existiert, in einer rechtlichen Grauzone und wird damit noch riskanter.
Die Situation in Brasilien
In Brasilien haben sich, wie in einigen anderen Ländern Lateinamerikas auch, die Gesichtserkennungstechnologien in der öffentlichen Sicherheit fast ungebremst ausgebreitet. Bahia, Ceará, Rio de Janeiro und das Bundesdistrikt Brasilia sind nur einige der Bundesstaaten, die diese Technologie bereits eingeführt haben. Sei es durch umfangreiche Investitionen in Millionenhöhe oder durch die Spende von ausländischen Unternehmen. Die Technologien werden als Zukunft der Überwachungs- und Sicherheitstechnologie für Smart Cities angepriesen und für den Kauf teurer und ineffizienter Gesichtserkennungssysteme häufig Steuergelder verschwendet.
Diese Städte setzen bereits Gesichtserkennung ein
Der Bundesstaat São Paulo bereitet sich aktuell darauf vor, von mehr als 20.000 neue Kameras zu beschaffen, die in das System namens Smart Sampa aufgenommen werden sollen, um die Sicherheit in der Stadt zu verbessern. Die Kosten belaufen sich auf 70 Millionen Real pro Jahr. In der ersten Version der Ende 2022 veröffentlichten Ausschreibungsanforderungen wurde festgelegt, dass das System in der Lage sein sollte, verdächtige Personen Anhand von Merkmalen wie Hautfarbe, Gesicht, Kleidung, körperliche Eigenschaften und weiteren Kriterien zu identifizieren. Letzteres umfasste auch „Herumtreiberei“ oder „langes Verweilen an einem Ort“ als verdächtiges Verhalten. Verschiedene Akteure der Zivilgesellschaft und der Regierung starteten die Kampagne Tire Meu Rosto da Sua Mira, um diese Ausschreibung zu verhindern. Gemeinsam war es möglich, diese erste Version des Ausschreibungstextes von Smart Sampa anzufechten. Dennoch, wird sie in Kürze wieder öffentlich ausgeschrieben und das Szenario der Einführung eines starken Überwachungsapparates in der größten Stadt des Landes damit immer greifbarer.
Sicherheit bringt nur ein Verbot
Die große Gefahr von Menschenrechtsverletzungen bei der Art und Weise, wie in Brasilien die Gesichtserkennung in der öffentlichen Sicherheit eingesetzt werden soll, ist vergleichbar mit dem Kauf einer hochgefährlichen Waffe unter dem Vorwand, sie nur einzusetzen, wenn es nötig ist. Wir fragen uns: Ist es das Risiko wert?
Andere Länder beweisen bereits, wie diese Technologie zur Verfolgung von Minderheiten eingesetzt werden kann, wie zum Beispiel gegen die Uiguren, die muslimische Volksgruppe, die in China verfolgt und in Konzentrationslagern festgehalten wird oder auch gegen iranische Frauen, die sich weigern ein Kopftuch zu tragen und so zur Zielscheibe der Regierung werden.
Organisationen wie die Vereinten Nationen oder der Europäische Datenschutzausschuss warnen vor den Gefahren und den Menschenrechtsverstößen, die der Einsatz von Gesichtserkennungssystemen mit sich bringt, und regen Debatten über die Aussetzung der Verwendung solcher Technologien an, solange es noch keine spezifische Regulierung gibt.
Menschen auf der ganzen Welt haben sich organisiert, um für ihre Rechte einzustehen. Rund um den Globus haben Kampagnen und Bewegungen wie Reclaim Your Face in Europa oder No nos vean la cara in Mexiko Druck auf die Behörden ausgeübt, um die Ausbreitung der Verwendung von Gesichtserkennungstechnologien in der öffentlichen Sicherheit zu stoppen.
Der Bericht einer Untersuchung zeigte, dass Gesichtserkennungssysteme genutzt wurden, um Teilnehmende einer Demonstration gegen den Mord an George Floyd zu identifizieren. Auf Druck der Gesellschaft hin gab die Stadt von Minneapolis nach und verbannte das System. Auch die Unternehmen, die die Technologie geliefert hatten, IBM und Microsoft, unterbrachen daraufhin den Verkauf dieser Systeme an die Polizeikräfte.
In Argentinien erreichte die Kampagne ConMiCaraNo Ende 2022 gemeinsam mit ihren Partnern eine wichtige Errungenschaft: Die Justiz erklärte das eingesetzte Gesichtserkennungssystem zur Identifizierung von flüchtigen Personen für unrechtmäßig und ordnete die Löschung und Zerstörung der durch die Polizei gesammelten Datensätze an.
Auch in Brasilien gibt es Initiativen, die sich für das Verbot von Gesichtserkennung in Zusammenhang mit öffentlicher Sicherheit einsetzen. Die Bewegung Sai da Minha Cara hat zum Beispiel Mitglieder des Parlaments überzeugt, Gesetzesvorschläge für das Verbot von Gesichtserkennung im öffentlichen Raum einzubringen. Die Initiative Sem Câmera na Minha Cara! konnte durch ihre Aktionen verhindern, dass die Stadtverwaltung von Recife (Bundesstaat Pernambuco) smarte, mit einer Gesichtserkennungsfunktion ausgestattete Uhren in der Stadt anbringen konnte.
Auch Kampagne Tire Meu Rosto da Sua Mira tritt für das Verbot dieser schädlichen Technologie ein, die sich mit rasanter Geschwindigkeit in Brasilien ausgebreitet hat. Ein Verbot auf nationaler Ebene zu erreichen ist eine Herausforderung. Wir wollen enger zusammenarbeiten und Debatten über und Initiativen für ein Verbot in jede Region unseres Landes tragen. Es gibt noch viel zu tun, aber wir wissen, dass eine Zukunft ohne den Einsatz von Gesichtserkennung im öffentlichen Raum möglich ist.
Übersetzung aus dem Portugiesischen: Kirsten Grunert
Dieser Text erschien zuerst auf Fundação Heinrich Boell Brasil
Zu den Autor*innen:
Horrara Moreira hat einen Bachelorabschluss der Rechtswissenschaften von der Bundesuniversität von Rio de Janeiro (UNIRIO). Sie ist Mitglied des Kollektivs AqualtuneLab, Beraterin der Kampagne Tire Meu Rosto da Sua Mira sowie Communications Analyst und Koordinatorin im Projekt Defendendo o Brasil do Tecnoautoritarismo des Verbands Associação Data Privacy Brasil de Pesquisa. Außerdem hat sie unterschiedliche Schulungen absolviert: im Bereich Privatsphäre und Datenschutz bei der Data Privacy Brasil und der Päpstlich Katholischen Universität von Rio de Janeiro (PUC), Mobilisierung und Engagement bei Megafone Ativismo, Human Centered Design bei Acumen Academy und Ideo.org sowie in kooperative Praxis durch das Instituto Brasileiro de Práticas Colaborativas. Des Weiteren betreibt sie seit 2015 Aufklärungsarbeit zu Menschenrechten.
Pedro Peres hat einen Bachelorabschluss der Rechtswissenschaften von der Bundesuniversität von Pernambuco (2018). Er ist seit 2020 Teil des Labors für öffentliche Politik und Internet (LAPIN), von 2021-22 als Direktor und aktuell als Forscher im Bereich Desinformation. Er war zweimal Stipendiat des Programms Youth IGF des Comitê Gestor da Internet (CGI.Br) (2016 und 2019) und hat an den Initiativen Youth4DigitalSustainability (2020) und Youth x PolicyMakers (2021) der German Informatics Society teilgenommen.