Filter Bubble – Echokammer – Fake News

Was ist eine Filterbubble?Urheber/in: Heinrich-Böll-Stiftung / State. All rights reserved.

Zersplittert unsere Gesellschaft in kleine Gruppen, die von den anderen nichts mehr wissen wollen? Kursieren in digitalen Parallelgesellschaften Fake News? Zeit für eine Bestandsaufnahme.

Fast jede und jeder von uns ist in einem sozialen Netzwerk angemeldet und dort in der Regel täglich aktiv. Egal ob Facebook, Twitter oder Snapchat, wir vernetzen uns mit Freunden oder Menschen, die wir – warum auch immer – mögen. Auch Nachrichten und Kommentare landen so in unserer Timeline. Konträre Meinungen oder gesellschaftliche Widersprüche tauchen da nur sehr selten auf. Wissenschaftlerinnen und Beobachterinnen sprechen hier von der Filter Bubble oder Echokammer.

So funktioniert die Filterbubble technisch

Die „Filterbubble“ oder „Echokammer“ entsteht im ersten Schritt immer durch uns Nutzerinnen und Nutzer, weil wir unsere Kontakte wählen. Dazu Markus Reuter von der Plattform für digitale Freiheitsrechte Netzpolitik.org:

 „Dadurch entsteht ein etwas einseitiges Bild der Welt. Nämlich eines, was die eigene Wahrnehmung immer bekräftigt oder die einem zeigt, dass man richtigliegt und das alle anderen auch so denken. Dieses Ding wird natürlich bei Facebook zum Beispiel durch den Algorithmus noch mehr beeinflusst, in dem dort die Nachrichten, von denen Facebook denkt, dass sie mir noch besser zusagen, bevorzugt ausgespielt werden. Und dadurch bekomme ich nicht mehr andere Sichtweisen mit.“

Nun mag man sagen, dass es schon immer einen Unterschied zwischen taz- und BILD- oder FAZ- und Süddeutsche-Leserinnen und Lesern gegeben hat. Und das ist auch korrekt. Das bestätigt der Kommunikationswissenschaftler Martin Emmer von der Freien Universität Berlin. Er forscht zur Mediennutzung und für den Professor sind „Filter Bubble“ oder „Echokammer“ bereits Diagnosebegriffe:

 „Ganz ausgemacht ist das natürlich auch noch nicht, dass diese Filterbubbles in dieser Form, wie man sie sich idealerweise vorstellt auch so wirklich existieren. Letztendlich steckt dahinter ja eine Technologie, die ganz andere Zwecke hat. Die eigentlich die Leute auf diesen sozialen Netzwerken halten will, die Nutzerbedürfnisse möglichst optimal befriedigen will, eher aus einer ökonomischen Perspektive heraus. Aus einer Dienstleisterperspektive will man natürlich die Bedürfnisse der Kunden befriedigen. Die hat aber eben, wenn man in den Bereich der politischen Öffentlichkeit kommt, auch Folgen für das, womit Menschen konfrontiert werden, worüber sie sich unterhalten. Damit müssen wir zurechtkommen. Damit müssen auch die Anbieter dieser Technologien zurechtkommen. Und man sieht ja bei Facebook auch, dass die Kollegen da ein bisschen überfordert sind.“

Die Gefahren der Filter Bubble 

Von Echokammern oder Filterblasen kann eine echte Gefahr ausgehen, sagt Karolin Schwarz:

„Das bedeutet im Extremfall, dass man sich tatsächlich eine alternative Realität schaffen kann. Mit Medien, die abseits der klassischen, etablierten Medien sind, die wirklich eine gewisse Ideologie sehr krass verfolgen und dass man sich dadurch eben immer wieder bestätigt findet in seinem Weltbild und auch nicht mehr auf andere Dinge zugreifen muss."

Karolin Schwarz ist eine der Gründerinnen der Hoaxmap. Die Seite sammelt und überprüft Gerüchte und Falschmeldungen über Geflüchtete. Wird eine Lüge eindeutig enttarnt, kommt sie in die Hoaxmap. Mittlerweile sind dort über 450 Meldungen versammelt.

Die Wirkung der Filter Bubble

Während das Phänomen Filter Bubble oder Echokammer in der öffentlichen Wahrnehmung momentan eine sehr große Aufmerksamkeit bekommt, ist die Medienwirkungsforschung da deutlich gelassener. Zwar gibt es nur wenige aktuelle Studien zum Thema, aber einfache Wahrheiten und direkte Zusammenhänge gibt es wohl nicht. Professor Martin Emmer:

„Ich habe vor einigen Jahren eine kleine Studie gemacht, wo wir geguckt haben, ob denn Leute, die sich stärker aus Internetquellen informieren über politische Themen, denn tendenziell andere individuelle Themenagenden entwickeln als Menschen, die sich aus Massenmedien informieren. Und da haben sich interessanterweise relativ wenige Unterschiede gezeigt, weniger starke als wir ursprünglich vermutet hätten. Die Studien, die es zu Social Media gibt, zu Facebook, deuten ein bisschen auch in diese Richtung. Man kann da sicher Effekte finden, die sind aber oft nicht so stark, wie man sich das vorstellt. Weil man immer ein bisschen unterschätzt, wenn man auf so ein Phänomen starrt, in wie viele Kommunikationsnetzwerke wir in unserem Alltag eingebunden sind. Wir kriegen immer - trotzdem wir vielleicht intensive Social-Media-Nutzer sind - auch noch Informationen aus traditionellen Medien mit. Wir unterhalten uns auch Face-to-Face mit Leuten. Das ist immer ein Gegengewicht, das wahrscheinlich auch dauerhaft immer eine Rolle spielen wird.“

Aber auch Professor Martin Emmer will dieses Phänomen der selektiven Wahrnehmung und ihrer Wirkung auf den einzelnen im Auge behalten.

Helfen Verbote?

In der Debatte über die Wirkung von sozialen Netzwerken fordern Politiker schnell einmal stärkere Eingriffe oder gar Verbote. Ein gutes Beispiel dafür ist sicher die aktuelle Fake-News-Debatte. Auch hier geht es darum, dass in bestimmten Zirkeln falsche Nachrichten kursieren und für wahr gehalten werden. Hier sind sich alle von uns getroffenen Gesprächspartner einig, dass Verbote hier nicht weiterhelfen.

 „Verbieten ist ja immer schnell bei der Hand“, stellt Markus Reuter fest. „Mir ist das Grundprinzip von „Ein Algorithmus entscheidet, was mir gefallen könnte“ zuwider. Ich finde da die Ansätze von anderen sozialen Medien besser: Twitter versucht auch in eine algorithmische Geschichte reinzukommen, aber da ist das Prinzip ja eher so, ich folge jemanden und kriege alles, was diese Person macht. Das finde ich viel besser als irgendwie zu gewichten und künstlich zu verknappen. Nein, ich glaube Filter Bubble verbieten kann man nicht und sollte man auch nicht.“

Algorithmen könnten hier tatsächlich eine Lösung sein. Das sieht auch der Vordenker des „Web 2.0“, Tim O'Reilly so. Staatliche Zensurbehörden oder Gesetze sind aus seiner Sicht der falsche Weg. Er plädiert dafür neue Algorithmen zu entwickeln, die beispielsweise Fake News früh erkennen und enttarnen.

 „Man kann künstliche Intelligenz trainieren, in dem man ihr sehr viele Beispiele für Fake News zeigt. Das wird die Maschine dann erkennen. Man kann die Quelle automatisch prüfen lassen: „Ist sie vertrauenswürdig?“. Das kann ein Algorithmus leicht erkennen. Ist die Seite gerade erst angelegt worden oder gibt es die schon lange? Gibt es bereits bekannte Fälle von Fake News von dieser Webseite? Ein Algorithmus kann das sehr schnell und zu dem Zeitpunkt, wo das Phänomen auftaucht. Wir müssen verstehen, dass ein großer Teil unserer Informationsverarbeitungsprozesse elektronisch wird. Wir brauchen elektronische Redakteure, nicht nur menschliche Redakteure.“

Ein Ansatz von Facebook in diesem Jahr ist die Entwicklung eines Algorithmus, der bei dubiosen Meldungen anschlagen soll und dann ab einer gewissen Relevanz von Journalisten - beispielsweise des Recherchebüros Correctiv.org - anhand gemeinsamer und transparenter Kriterien geprüft werden soll. Basis sind die Grundsätze des internationalen Netzwerks der Faktenchecker des Poynter-Instituts aus den USA. Dazu gehört beispielsweise Transparenz oder das Eingestehen von eigenen Fehlern. Facebook hofft dadurch Falschmeldungen zu verhindern und auch in geschlossenen Zirkeln mit Fakten durchzukommen.

Wie wir die Filterblase durchbrechen können

Für politisch interessierte Menschen und politische Parteien wird es in diesem Jahr darauf ankommen, die Filterbubble der einzelnen Leute möglichst zu durchbrechen. Für den Hamburger Politikberater und Blogger Martin Fuchs ist dabei der direkte Austausch von Argumenten entscheidend. Er hat einen ganz konkreten Tipp für den Umgang mit gegenteiligen Meinungen von ehemaligen Klassenkameraden oder Freunden von Freunden bei Facebook:

 „Wenn es zum Beispiel populistische Geschichten gibt, rechts- oder linkspopulistische Sachen, dass man die Leute nicht aus der Freundesliste schmeißt, sondern, dass man versucht es auszuhalten. Weil genau dieser Kontrapunkt, der mein Weltbild vielleicht auch in Frage stellt, ganz wichtig ist für einen politischen Diskurs. Das gilt für das Digitale sehr sehr stark, aber natürlich auch für das Analoge. Das ist ein Beispiel, was ich, wenn ich Politiker berate immer wieder erlebe. Die bekommen nicht mehr die reale Welt mit, wenn sie in Berlin sind. Weil das natürlich in Berlin-Mitte ein Mikrokosmos ist. Deshalb müssen sie in ihrem Wahlkreis immer wieder auch dahingehen, wo wirklich Leute mit Problemen sind, die weit weg sind von ihrer Welt und ihrer Realität. Das heißt jeder muss sehr aktiv sein, um die Filterbubble zu durchbrechen."

Für Markus Reuter von Netzpolitik ist genau das die Herausforderung für politische Parteien und aus seiner Sicht sind die Rechtspopulisten da einen Schritt weiter:

 „Aber das ist natürlich schon eine Frage. Wie kann ich in die Filterbubble rein oder auch raus. Das sind auch so Effekte, die man so beobachtet. Zum Beispiel habe ich das Gefühl, die eher rechte Bewegung schafft es aus der Filterbubble raus, weil sie die Gegner in ihrer Filterbubble verlinkt als Gegner. Und dann kommen diese Leute aus der Filterbubble raus und gehen in ein Medium, was linksliberal ist, die taz zum Beispiel, die unglaublich Probleme hat mit rechten Kommentatoren. So etwas kann ja auch passieren. Dieses Rausgehen aus der Filterbubble ist gar nicht falsch. Ich glaube, das machen nicht alle. Das ist ein Ding, das mir aufgefallen ist, dass die Rechte da eher rausschaut als die Linke.“

Der Politikberater Martin Fuchs hat einen pragmatischen Ansatz, wie man das Angenehme mit dem Nützlichen verbinden kann:

 „Dass man zum einen offener durch die Welt gehen sollte, auch durch die Onlinewelt und da sich auch bewusstmachen muss, dass man mit Leuten redet, mit denen man sonst nie in Kontakt kommen würde. Ich mach das zum Beispiel so in Hamburg, dass ich jeden Monat in eine Eckkneipe gehe, in einem Stadtviertel in dem ich nicht wohne, um dort mit Leuten ins Gespräch zu kommen und zu erfahren, was die so umtreibt.“

Wir alle müssen also raus aus der digitalen Filterblase oder Echokammer, aber dürfen auch insgesamt etwas gelassener sein. Denn jede und jeder von uns hat unzählige Kontakte, die nicht in digitalen sozialen Netzwerken stattfinden. Die verstörende Vision komplett abgeschotteter Teilgesellschaften scheint zumindest überzogen.

Creative Commons Lizenzvertrag Dieser Artikel steht unter einer Creative Commons Lizenz.

Neuen Kommentar schreiben