Der europäische Digital Services Act (DSA) legt neue Regeln für Online-Plattformen fest und soll dafür sorgen, dass diese mehr Verantwortung übernehmen. Doch welche Maßnahmen umfasst der DSA konkret und warum steht er seitens der neuen US-Regierung und der Big-Tech-Konzerne so unter Druck?

Mit Donald Trump scheint nicht nur Elon Musk, sondern die gesamte amerikanische Tech-Elite ins Weiße Haus eingezogen zu sein. Mit ihrer Anwesenheit bei Trumps Amtseinführung sendeten Silicon Valleys Tech-Milliardäre ein klares Signal: Von ihnen ist mit keiner Gegenwehr zu rechnen, im Gegenteil: Sie stehen an der Seite Trumps, um von ihm zu profitieren. Die seitdem von Meta angekündigten menschenverachtenden Änderungen der Hassrede-Regeln können nur als Kniefall vor Trumps Agenda bezeichnet werden. Nach diesen dürfen Transmenschen nun als “psychisch krank” und Frauen als Objekte bezeichnet werden. Auch Elon Musks Plattform X steht bereits seit Monaten in der Kritik, kaum noch gegen rechtswidrige und schädliche Inhalte vorzugehen. Damit, und mit der Nähe der Tech-CEOs zum amerikanischen Präsidenten, steigt der Druck auf die europäischen Regeln, die die Macht der Plattformen einschränken sollen. Allen voran der Digital Services Act.
Was ist eigentlich dieser Digital Services Act?
Kurz gesagt ist der Digital Services Act (DSA) der Rechtsrahmen für Online-Plattformen in der Europäischen Union. Der DSA stellt die grundlegenden Regeln auf, die für Online-Plattformen in der EU gelten – dazu zählen neben sozialen Netzwerken auch Suchmaschinen wie die Google Suche, Marktplätze wie Amazon und Zalando und App-Stores wie der Google Play Store.
Der DSA verfolgt dabei einen risikobasierten Ansatz: Je mehr Kontrolle ein Anbieter über die Inhalte hat, die über seinen Dienst verbreitet werden, desto höheren Anforderungen muss er gerecht werden. Nach der gleichen Logik schreibt der DSA zusätzliche Regeln für die allergrößten Plattformen vor, deren Dienste den größten Einfluss auf unsere Gesellschaft haben. Halten sich die Plattformen nicht an die Regeln des DSA, drohen ihnen Geldstrafen von bis zu sechs Prozent ihres weltweiten Jahresumsatzes.
Welche Regeln müssen Plattformen jetzt befolgen?
Vereinfacht gesagt besteht der DSA aus vier Pfeilern. Im ersten Kapitel werden Haftungsregeln definiert, also die Frage beantwortet, unter welchen Umständen Plattformen für rechtswidrige Inhalte haften, die ihre Nutzer*innen geteilt haben. Diensteanbieter, die Informationen nur verarbeiten, aber keine aktive Rolle in der Erstellung und Verbreitung von Inhalten übernehmen, profitieren von Haftungsausnahmen, sogenannten Haftungsprivilegien. Je nachdem, ob der Dienst Inhalte nur durchleitet, zwischenspeichert oder anderen zur Verfügung stellt, wie es etwa Social-Media-Plattformen tun, müssen weitere Voraussetzungen erfüllt sein, um von Haftungsprivilegien Gebrauch zu machen.
Für Plattformen wie soziale Netzwerke, die nutzergenerierte Inhalte einer breiten Öffentlichkeit zur Verfügung stellen und dabei oft kuratierend aktiv werden gelten deswegen strengere Regeln. Sie müssen zum Beispiel Meldeverfahren einrichten, über die Nutzer*innen rechtswidrige Inhalte melden können. Die Plattformen sind dazu verpflichtet, diese Meldungen zu überprüfen und – falls diese rechtswidrig sind – Maßnahmen zu ergreifen, um den Zugang zu den Inhalten einzuschränken. Inhalte melden können neben regulären Nutzer*innen auch sogenannte vertrauenswürdige Hinweisgeber (Trusted Flagger). Das sind Organisationen, die besondere Expertise bei der Identifizierung rechtswidriger Inhalte haben und in den Mitgliedsstaaten zugelassen werden. Plattformen müssen Inhalte, die von den Trusted Flaggern gemeldet werden, vorrangig prüfen und ggf. löschen.
Plattformen haben außerdem die Option, freiwillige Maßnahmen zum Erkennen und Entfernen von Inhalten zu ergreifen, die rechtswidrig sind, oder gegen ihre Hausregeln verstoßen. Wo früher Nutzer*innen der Gunst und den Regeln der jeweiligen Plattform ausgeliefert waren, stellt der zweite Pfeiler des DSA klare Anforderungen für den Umgang mit Nutzer*inne-Inhalten auf: Plattformen müssen schon in ihren Hausregeln klar kommunizieren, welche Inhalte auf ihrer Plattform zulässig sind, und welche nicht, und dabei europäische Grundrechte wie die Meinungsfreiheit berücksichtigen. Nutzer*innen müssen über Änderungen bei diesen Regeln informiert werden. Diensteanbieter müssen ihren Nutzer*innen außerdem erklären, weshalb ein konkreter Inhalt entfernt wurde, Transparenzberichte über die Moderation von Inhalten veröffentlichen, und alle Moderationsentscheidungen in eine öffentliche Datenbank einspeisen.
Plattformen können jedoch nicht dazu gezwungen werden, proaktiv die Posts ihrer Nutzer*innen nach potentiell rechtswidrigen Inhalten zu durchsuchen. Angesichts der Massen an Inhalten im Netz, und den oft komplizierten rechtlichen Abwägungen bei der Beurteilung einer Aussage, soll so eine massenhafte Zensur von Inhalten vermieden werden.
Neue Beschwerderechte und Transparenzpflichten
Zentral sind auch die neuen Beschwerderechte für Nutzer*innen: Plattformen müssen Beschwerdemechanismen zur Verfügung stellen, über die Moderationsentscheidungen angefochten werden können. Neu ist die außergerichtliche Streitbeilegung: Wenn eine Plattform einen gesperrten Inhalt auch nach einer Beschwerde der betroffenen Nutzerin nicht wiederhergestellt hat, kann sich die Nutzerin an unabhängige Stellen wenden, die dann zwischen Plattform und Benutzerin vermitteln. Diese Verfahren sind zwar rechtlich nicht bindend, für Nutzer*innen aber kostenlos. Nutzer*innen können sich aber auch gleich an zivilgesellschaftliche Organisationen wenden, um ihre Rechte durchsetzen zu lassen – über Beschwerdemechanismen der Plattformen, bei der außergerichtlichen Streitbeilegung oder vor Gericht.
Darüber hinaus müssen Plattformen grundlegende Transparenz zur Funktionsweise ihrer algorithmischen Empfehlungssysteme herstellen. Diese entscheiden, in welcher Reihenfolge welche Inhalte und Postings den Nutzer*innen angezeigt werden. Außerdem dürfen Plattformen keine sensiblen privaten Informationen zum Targeting von Online-Werbung nutzen und müssen Maßnahmen zum Kinder- und Jugendschutz ergreifen. Auch Dark Patterns sind verboten: Das sind Designmuster, die Nutzer*innen zu einem bestimmten Verhalten oder zu Entscheidungen verleiten sollen, die sie sonst nicht getroffen hätten. Ein verbreitetes Beispiel sind Cookie-Banner, die es leichter machen, Datenverarbeitung zuzustimmen, als abzulehnen.
Von Nutzer*innenrechten zu systemischen Risiken
Damit schafft der DSA ein europaweites Mindestniveau für Nutzer*innenrechte. Der dritte Pfeiler des DSA legt darüber hinaus weitergehende Verpflichtungen für die allergrößten Dienste fest. Das sind sehr große Online-Plattformen oder Suchmaschinen, die mehr als 45 Millionen Nutzer*innen pro Monat zählen (sogenannte very large online platforms or search engines abgekürzt VLOPs und VLOSEs). Als solche hat die Europäische Kommission bis jetzt knapp 25 Dienste benannt. Dazu zählen soziale Medien wie Instagram, TikTok und X, Googles und Apples App-Stores, Google Maps, eine Reihe von Marktplätzen, die Suchmaschinen von Google und Bing, und mehrere pornografische Plattformen.
Diese Plattformen müssen zusätzlich überprüfen, welche “systemischen Risiken” von ihren Diensten ausgehen. Was genau solche systemischen Risiken sind, bleibt unklar: Der DSA beinhaltet eine Liste von breiten Phänomenen wie negative Auswirkungen auf Grundrechte, gesellschaftliche Debatten und Wahlprozesse oder öffentliche Sicherheit und Gesundheit sowie nachteilige Auswirkungen in Bezug auf geschlechtsspezifische Gewalt oder das körperliche und geistige Wohlbefinden einer Person. Definitionen oder Beispiele von konkreten Manifestierungen dieser Risiken fehlen aber. So bleibt es den mächtigsten Plattformen selbst überlassen, die Mitschuld ihrer Dienste an diesen gesellschaftlich relevanten Risiken zu definieren und im zweiten Schritt Maßnahmen zu ihrer Eingrenzung zu ergreifen. Auch über diesen Prozess der Risikobewertung – und entsprechende Minderungen – müssen Plattformen Bericht ablegen.
Die Lektüre der ersten, lang erwarteten Risikoberichte ist allerdings ernüchternd. Ein gutes Beispiel ist TikTok. Im Kontext der rumänischen Wahl wurden schwere Vorwürfe gegenüber der chinesischen Plattform erhoben: Nach der Veröffentlichung von Berichten lokaler zivilgesellschaftlicher Gruppen, in denen TikTok beschuldigt wurde, Inhalte des ultranationalistischen Präsidentschaftskandidaten Calin Georgescu, verstärkt auszuspielen, und einem Gutachten des rumänischen Geheimdienstes, das Cyberangriffe und ausländische Einflussnahme beschrieb, annullierte das rumänische Verfassungsgericht die Wahlergebnisse. Kurz darauf eröffnete die Europäische Kommission ein Verfahren gegen TikTok wegen unzureichender Beherrschung systemischer Risiken im Zusammenhang mit der Integrität der rumänischen Wahlen. TikToks eigener Bericht zu systemischen Risiken adressiert durchaus auch Fehlinformationen im Kontext von Wahlen. Allerdings beschränkt sich TikTok auf die Verbreitung von Desinformation und ignoriert Faktoren wie den Missbrauch von TikToks Empfehlungsalgorithmen oder Manipulations-Netzwerke ("coordinated inauthentic behaviour”). Das sind koordinierte Netzwerke, die etwa mit zahlreichen Social-Media-Accounts gezielt Desinformationen verbreiten. Dies verdeutlicht den großen Spielraum der Plattformen bei der Definition systemischer Risiken und der Umsetzung ihrer eigenen Strategien zur Risikominderung.
In seinem Versuch, nicht nur die Verbreitung illegaler Inhalte, sondern auch die komplexeren gesellschaftlichen Auswirkungen von Online-Plattformen zu adressieren, geht der DSA ambitionierte neue Wege. Ob dieser Ansatz aufgehen wird, wird allerdings stark davon abhängen, wie konsequent Plattformen zur Verantwortung gezogen werden.
Ein Gesetz ist nur so gut wie seine Durchsetzung
Damit wären wir beim letzten Pfeiler des DSA angekommen, seiner Durchsetzung. Auch hier geht der DSA neue Wege. Für die Aufsicht über die allergrößten Plattformen – der VLOPs und VLOSEs – ist die Europäische Kommission zuständig. Damit soll vermieden werden, dass die irische Aufsichtsbehörde, wo die allermeisten großen Plattformen ihren europäischen Sitz haben, vom Umfang ihrer Aufgaben oder der Nähe zu den Plattformen überwältigt wird (wie es bei der Datenschutzgrundverordnung der Fall zu sein scheint).
In den Mitgliedstaaten wird die Kommission durch nationale Aufsichtsbehörden, sogenannte Digital Services Coordinators (DSC), unterstützt. Sie sind die erste Anlaufstelle für Beschwerden von Nutzer*innen und erfüllen eine Reihe von spezifischen Aufgaben, wie zum Beispiel die Zertifizierung von außergerichtlichen Streitbeilegungs-Stellen, den Trusted Flaggern und Forschenden, die vom neu eingeführten Recht auf Datenzugang durch Plattformen Gebrauch machen möchten. In Deutschland sind viele Behörden, darunter auch die Landesmedienanstalten, an der Aufsicht beteiligt. Die Bundesnetzagentur hat als DSC die Aufgabe übernommen, diese zu koordinieren. Eine deutsche Besonderheit ist ein aus Vertreter*innen der Zivilgesellschaft, Wissenschaft und Wirtschaft bestehender Beirat, der den DSC in seiner Arbeit beraten und unterstützen soll.
Was die Durchsetzung des DSA in Deutschland betrifft, sind fehlende Stellen, die der DSC für die Durchsetzung des DSA bis jetzt nicht bekommen hat, ein massives Problem. Mit aktuell knapp 20 besetzten Stellen liegen diese weit hinter den gesetzlich festgeschriebenen 70,6 zurück. Schon die waren aber angesichts der vielen Aufgaben der Koordinierungsstelle niedrig angesetzt. Und mit Blick auf die vorgezogene Bundestagswahl und die damit verbundenen Herausforderungen von Informationsqualität bis Desinformation ist klar, dass der DSC eher vor mehr als weniger Herausforderungen stehen wird.
Transatlantischer Gegenwind
Auf europäischer Ebene wurden im ersten Jahr seit Inkrafttreten des DSA bereits in knapp 60 Fällen Untersuchungen eingeleitet, davon alleine 13 gegenüber TikTok, acht zu Meta und fünf gegen X. Auch mit den personellen Ressourcen sieht es besser aus als in den Mitgliedstaaten. Können wir also damit rechnen, dass bald Millionenbußgelder gegen Tech-Unternehmen wegen Nichteinhaltung des DSA erlassen werden? Nicht, wenn sich die Silicon-Valley CEOs durchsetzen können. Denn für sie ist die zweite Trump-Amtszeit eine Chance, die Wirkung der neuen europäischen Regeln zu zersetzen.
Wie kein anderer steht Elon Musk, Besitzer von X, Tesla und Starlink, für die neue “Broligarchie”, also die Gruppe superreicher Männer, die sich Trumps Gunst zu kaufen scheinen. Musk selbst, der Trumps Wahlkampf mit satten 277 Million Dollar und unbezahlbarer Reichweite auf X unterstützte, kann sich als Mitglied von Trumps Kabinett seiner Unterstützung gegen die europäische Rechtsdurchsetzung wohl sicher sein. Noch während des Wahlkampfs hat Vizepräsident Vance damit gedroht, die amerikanische Unterstützung für die Nato davon abhängig zu machen, dass die EU nicht gegen X vorgeht.
Auch Metas CEO Mark Zuckerberg und Apple-Chef Tim Cook (auch sie unterstützen Trump finanziell) wurden bereits bei Trump vorstellig, um europäische Bußgelder abzuwenden. Dabei ist es kein Zufall, dass Mark Zuckerberg Strafzahlungen für Rechtsverstöße mit Zöllen vergleicht. Mit den kürzlich verkündeten Strafzöllen gegenüber Kanada, Mexiko und China hat Trump bewiesen, dass er nicht vor für die eigene Bevölkerung schädlichen Zöllen zurückschrecken wird, um seine Interessen durchzusetzen. Im dritten Jahr des Kriegs in der Ukraine und inmitten anhaltender Sorgen über Europas wirtschaftliche Verfassung, könnte die Durchsetzung europäischer Grundrechte mittels des DSA nun also eine geopolitische Machtfrage werden.
Don’t deal with it
Diese Gemengelage spielt auch europäischen Industrie-Interessen in die Hände, und die Stimmen, die eine neue Ära der drastischen Deregulierung fordern, werden lauter. Auf dem Spiel steht aber sehr viel mehr als der angekündigte Rückbau von Umwelt-Regulierungen oder die Durchsetzung des DSA: Wer mit Trump handelt, verzockt die Glaubwürdigkeit des europäischen Projekts.
Eine konsequente Durchsetzung des DSA und europäischer Wettbewerbsregeln hat das Potenzial, der finanziellen, strukturellen und politischen Übermacht großer Tech-Unternehmen etwas entgegenzusetzen. Statt sich durch Zölle und Nato-Hilfen erpressen zu lassen und Rechtsdurchsetzung zu verschleppen, muss die EU also gerade jetzt die schärfsten Schwerter, die sie zur Verfügung hat, nutzen. Private Macht muss eingedämmt und die Demokratisierung der Wirtschaft im Interesse der europäischen Bürger*innen vorangetrieben werden. Ob der DSA und die im Schwestergesetz Digital Markets Act angelegten Maßnahmen wie Entflechtungen dazu ausreichen, wird sich zeigen. Stand heute sind sie aber das beste Gegenmittel, um Europa und unsere Demokratien vor dem Einfluss der neuen Tech-Oligarchie zu schützen.