Desinformation: Wie der Digital Services Act Plattformen verpflichtet – und wo es noch hakt

Analyse

Mit dem Inkrafttreten des Digital Services Act (DSA) verfolgt die Europäische Union (EU) ein ambitioniertes Ziel: Die Macht großer Online-Plattformen wie YouTube, TikTok, Facebook oder Instagram soll gebändigt, gesellschaftliche Risiken wie Desinformation eingedämmt werden. Doch wie wirksam ist der DSA tatsächlich bei der Bekämpfung von Desinformation? Welche Maßnahmen sind vorgesehen und wo liegen die Grenzen?

Zwei Hände greifen nach Zahnrad und Sprechblase vor Smartphone mit Chat-Elementen und Symbolen auf rotem Hintergrund.

Im Zentrum des DSA steht ein umfassendes Maßnahmenpaket, das Plattformen mit mehr als 45 Millionen monatlich aktiven Nutzer*innen in der EU – sogenannte Very Large Online Platforms (VLOPs) und Very Large Online Search Engines (VLOSEs) – besonders in die Verantwortung nimmt. Diese Regelung betrifft seit dem 25. August 2023 zunächst 19 Plattformen, darunter u.a. Facebook, YouTube, TikTok, Instagram, X (Twitter) und Google Search.

Zur Bekämpfung von Desinformation enthält der DSA folgende Maßnahmen:

Systemische Risikobewertungen: Seit April 2023 müssen betroffene Plattformen jährlich analysieren, welche gesellschaftlichen Risiken von ihren Diensten ausgehen – etwa durch algorithmisch verstärkte Inhalte, mögliche Wahlbeeinflussung oder Gesundheitsrisiken. Erste unabhängige Risikoberichte wurden im Dezember 2024 veröffentlicht.

Transparenzpflichten: Plattformen sind verpflichtet, offenzulegen, wie ihre algorithmischen Systeme Inhalte behandeln. Zusätzlich müssen sie mindestens eine Feed-Alternative ohne Profiling anbieten – etwa chronologisch sortierte anstatt personalisierter Feeds, siehe EU-Leitfaden zu Transparenzanforderungen.

Beschränkung gezielter Werbung: Werbung mit Kindern oder auf Basis sensibler Daten basiert (z. B. Religion, sexuelle Orientierung), ist untersagt. Artikel 26 des DSA regelt, dass Nutzer*innen nachvollziehen können, warum sie bestimmte Anzeigen sehen.

„Trusted Flaggers“ und Content-Moderation: Trusted Flaggers (vertrauenswürdige Hinweisgeber*innen) spielen eine zentrale Rolle bei der Umsetzung des Digital Services Act, um illegale Inhalte im Netz wirksam zu bekämpfen. Diese Organisationen verfügen über besondere Expertise und Erfahrung bei der Identifizierung und Meldung rechtswidriger Inhalte. In Deutschland bestimmt die Bundesnetzagentur diese Organisationen. Diese umfassen aktuell die Meldestelle REspect!, den Bundesverband Onlinehandel e.V. (BVOH), HateAid gGmbH und den Verbraucherzentrale Bundesverband (vzbv). Plattformen sind gesetzlich verpflichtet, Meldungen von Trusted Flaggern prioritär zu behandeln und unverzüglich Maßnahmen wie beispielsweise die Löschung der Inhalte zu ergreifen. 

Zugang zu Plattformdaten: Plattformen mit mehr als 45 Millionen monatlichen Nutzer*innen gelten als sehr große online Plattformen (VLOPs) und müssen unter dem DSA Forschungseinrichtungen, Behörden und unabhängigen Auditoren Zugang zu den Daten auf den Plattformen geben. Eine Grundlage dafür bildet der kürzlich verabschiedete Data Access Delegated Act (2025). Diese Maßnahme bildet die zentrale Grundlage, um nicht nur die Dynamiken auf Plattformen besser zu erforschen, sondern auch systemische Risiken durch beispielsweise Desinformation zu kontrollieren und damit zu identifizieren.

Als Durchsetzungshebel enthält der DSA die Möglichkeit von Sanktionen: Plattformen, die gegen DSA-Vorgaben verstoßen, drohen Geldstrafen von bis zu 6 Prozent ihres weltweiten Jahresumsatzes. Siehe Artikel 74 DSA. Nutzer*innen erhalten das Recht auf Widerspruch bei Moderationsentscheidungen der Plattformen – inklusive eines außergerichtlichen Streitbeilegungsverfahrens. 

Wie wirksam sind diese Maßnahmen bisher? 

Die Wirksamkeit des DSA lässt sich bislang nur vorsichtig bewerten. Für VLOPs trat der DSA am 25. August 2023 in Kraft, für alle anderen digitalen Dienste, auch für kleinere Plattformen folgte der Start deutlich später am 17. Februar 2024. Viele zentrale Mechanismen – wie etwa unabhängige Prüfungen, Datenzugänge für Forschung oder die Veröffentlichung systemischer Risikoberichte – befinden sich aktuell noch im Aufbau oder in der Erprobung. 

Dennoch sind erste Veränderungen sichtbar: So veröffentlichte Meta im Juni 2023 einen Transparenzbericht, in dem neue Optionen zur Feed-Anpassung, Informationen zur algorithmischen Sortierung von Inhalten sowie neue Zugänge für Forscher*innen vorgestellt wurden. Auch YouTube hat angekündigt, seine Meldefunktionen zu verbessern und mehr Transparenz bei Feed-Einstellungen zu schaffen. Zudem reagierte TikTok auf regulatorischen Druck: Das umstrittene Belohnungsprogramm „TikTok Lite Rewards“ wurde im April 2024 nach Intervention der EU-Kommission aufgrund fehlender Risikoprüfung gestoppt – ein deutliches Signal für die Durchsetzungskraft des DSA, wie die Pressemitteilung der EU-Kommission zeigt. 

Trotz erster Fortschritte bleibt die Kritik an den Risikoberichten der Plattformen bestehen. Viele dieser Berichte sind nach wie vor nicht öffentlich zugänglich, folgen keinem einheitlichen Standard und machen kaum nachvollziehbar, ob und wie die Plattformen tatsächlich mit gesellschaftlichen Risiken umgehen. Auch das European Digital Media Observatory (EDMO) betont regelmäßig die mangelnde Transparenz und fehlende Vergleichbarkeit dieser Dokumente. Auch fehlt es an weiteren Messinstrumenten für die Wirksamkeit von Plattform-Maßnahmen – ohne diese kann eine (unabhängige) Prüfung abseits von Berichten nicht stattfinden.

Die Kritik beschränkt sich jedoch nicht nur auf die Berichte selbst, sondern betrifft die Umsetzung des Digital Services Act (DSA) insgesamt. Verzögerungen in den Mitgliedstaaten – etwa durch den langsamen Aufbau nationaler Strukturen, begrenzte personelle oder finanzielle Ressourcen sowie rechtliche Unklarheiten – erschweren eine einheitliche und wirksame Anwendung. Für viele betroffene Akteure bleibt weiterhin unklar, wie die rechtlichen Anforderungen konkret umzusetzen sind.

Ist zusätzliche Regulierung notwendig?

Ja – und diese ist teils bereits vorgesehen, aber noch nicht konkretisiert. Es braucht daher zusätzliche Maßnahmen, um den Digital Services Act (DSA) wirksam umzusetzen. Ein zentraler Aspekt ist die Förderung von Medienkompetenz: Die Empfehlung der EU-Kommission zur Medienkompetenz zeigt deutlich, dass vor allem im Bildungsbereich – etwa an Schulen oder in der Erwachsenenbildung – erheblicher Handlungsbedarf besteht, diesen Empfehlungen nachzukommen. Auch der Zugang zu Plattformdaten für unabhängige Forschung ist entscheidend, um Desinformation systematisch zu analysieren, zu verstehen und Gegenmaßnahmen entwickeln zu können. 

Mit dem Data Access Delegated Act, der am 2. Juli 2025 verabschiedet wurde, wurde erstmals eine EU-weite Rechtsgrundlage geschaffen, die Forschungseinrichtungen einen strukturierten und rechtssicheren Zugang zu Plattformdaten ermöglichen soll. Diese geschaffene Rechtsgrundlage muss jetzt auch konsequent in der Praxis durchgesetzt werden. Darüber hinaus ist eine internationale Kooperation unerlässlich, da Desinformation ein globales Phänomen ist – etwa im Rahmen des G7 Action Plan on Disinformation, der eine engere Abstimmung zwischen demokratischen Staaten vorsieht. 

Seit dem 1. Juli 2024 ist zudem der bisher freiwillige Code of Practice on Disinformation ein integraler Bestandteil des Digital Services Act (DSA) und wird damit zu einem verbindlichen Code of Conduct – Plattformen, die ihn unterzeichnet haben, sind nun rechtlich stärker in die Pflicht genommen, Desinformation aktiv zu bekämpfen. Schließlich braucht es eine Stärkung der nationalen Aufsichtsstrukturen für Plattformen: In Deutschland übernimmt die Bundesnetzagentur diese Rolle des sogenannten Digital Services Coordinators (DSC); das hierfür geplante Digitale-Dienste-Gesetz, die nationale Umsetzung des DSA, sieht neben der rechtlichen Verankerung auch ein eigenes Forschungsbudget vor, um die Aufsicht langfristig zu stärken. Denkbar wäre darüber hinaus eine nationale Anti-Desinformationsstrategie, in der man weitere Maßnahmen strategisch bündeln könnte, um ein koordinierteres Vorgehen zu gewährleisten.  

Wo liegen die Grenzen der Plattformregulierung?

Trotz der ambitionierten Ziele des DSA stößt die Regulierung digitaler Plattformen an mehrere Grenzen. Eine zentrale technische Herausforderung liegt in der Funktionsweise algorithmischer Systeme, welche oft selbst für Entwickler*innen schwer vollständig nachvollziehbar sind. Studien von AlgorithmWatch verdeutlichen, wie intransparent Empfehlungsmechanismen auf Plattformen wie YouTube oder TikTok sind – und wie schwer sie sich regulieren lassen. Hinzu kommt eine juristische Grauzone: Zwischen legitimer Meinungsäußerung und strafbarer Desinformation liegt häufig eine schwierige Abgrenzung. 

In Deutschland illustriert das Netzwerkdurchsetzungsgesetz (NetzDG) exemplarisch, wie komplex die rechtliche Bewertung von digitalen Inhalten sein kann. Auch wirtschaftliche Interessen stellen eine Hürde dar: Plattformen verdienen Geld mit Aufmerksamkeit, und polarisierende oder emotional aufgeladene Inhalte generieren besonders viel. Analysen der Mozilla Foundation zeigen, wie diese Aufmerksamkeitsökonomie strukturelle Anreize für die Verbreitung problematischer Inhalte schafft. Regulierung kämpft somit gegen einen Markt an, der inhärent vor allem von problematischen Inhalten profitiert. Schließlich gibt es organisatorische Grenzen: Viele nationale Aufsichtsbehörden wie etwa die Bundesnetzagentur in Deutschland stehen personell und technisch noch am Anfang. 

Ein Überblick über die Digital Services Coordinators (DSCs) in Europa zeigt, dass es in vielen Ländern noch an Ressourcen und klaren Zuständigkeiten mangelt.

Wie lässt sich verhindern, dass der DSA zu Zensur führt?

Die Sorge, dass der Digital Services Act zur Einschränkung der Meinungsfreiheit führen könnte, ist in politischen und zivilgesellschaftlichen Debatten präsent – besonders die Trump 2.0-Regierung treibt derzeit das Narrativ voran, Regulierung von digitalen Plattformen sei Meinungszensur. Was in diesen Debatten oft unerwähnt bleibt: Der DSA enthält explizite Schutzmechanismen in Bezug auf Meinungsfreiheit. So untersagt er eine generelle und anlasslose Inhaltsüberwachung durch Plattformen. Dieses sogenannte „General Monitoring“-Verbot ist in Artikel 8 des DSA verankert und schützt die freie Meinungsäußerung, indem es sicherstellt, dass keine dauerhafte Kontrolle sämtlicher Inhalte stattfinden darf. 

Darüber hinaus stärkt der DSA die Rechte der Nutzer*innen durch ein verbindliches Widerspruchsrecht: Wer von Löschungen oder Einschränkungen betroffen ist, kann Entscheidungen anfechten und im Zweifel ein außergerichtliches Schlichtungsverfahren einleiten. Die Verbraucherorganisation BEUC (Bureau Européen des Unions de Consommateurs) stellt hierzu Informationsangebote bereit. Transparenz ist ein weiteres zentrales Instrument gegen potenziellen Machtmissbrauch: Über die DSA Transparency Database können Entscheidungen von Plattformen zu Inhalten, Moderationsmaßnahmen oder Sperrungen eingesehen und überprüft werden. 

Schließlich sorgt die Architektur der behördlichen Plattformaufsichten für ein System von Checks & Balances: Die EU-Kommission ist für sehr große Plattformen zuständig, während die kleineren Dienste von den nationalen Digital Services Coordinators (DSCs) reguliert werden. Diese Dezentralisierung soll helfen, Machtkonzentrationen zu vermeiden und den DSA rechtsstaatlich abzusichern, vor allem auch gegen Machtmissbrauch. 

Fazit

Der DSA ist ein bedeutender Schritt hin zu einer demokratisch kontrollierten digitalen Öffentlichkeit. Er schafft neue Instrumente gegen Desinformation, setzt aber auch auf Eigenverantwortung und Transparenz. Ob die EU damit einen globalen Standard setzt, wird sich in den kommenden Jahren zeigen – entscheidend ist eine transparente und verhältnismäßige Umsetzung. In Zeiten, in denen Regulierung durch autoritäre Kräfte unter Druck gerät, muss dafür gesorgt werden, mehr Ressourcen zu investieren den Rechtsakt, seine Ziele und Grenzen zu erklären, denn: der DSA ist keine Einschränkung des digitalen Diskurses, sondern ein Instrument, um eben diesen zu schützen. 

Damit dies nicht nur in der Bevölkerung so wahrgenommen wird, sondern auch angemessen umgesetzt, gilt es den Rechtsakt konsequent durchzusetzen und weiterzuentwickeln. Dazu zählt auch, über institutionelle Strukturen nachzudenken, die über den DSA hinaus dafür sorgen, dass der digitale Raum ein sicherer Ort für Information und Diskurse darstellt.  

Zum Warenkorb hinzugefügt: