Die Europäische Union verstärkt ihre Bemühungen zur Kontrolle des Internets. Vorschriften wie der Digital Services Act (DSA), der Digital Markets Act (DMA) oder der European Media Freedom Act (EMFA) erlegen Medien wie Meta, TikTok oder X (ehemals Twitter) strenge Pflichten auf. Vermeintliches Ziel dieser Maßnahmen ist der Kampf gegen Desinformation, der Schutz von Kindern und die Gewährleistung von Transparenz, doch Kritiker warnen vor übermäßiger Überwachung und dem Verlust der Freiheit im Netz.

Der Digital Services Act (DSA), der seit Februar 2024 vollständig gilt, erlegt Social-Media-Plattformen die Verantwortung für illegale Inhalte der Nutzer auf, etwa Materialien über sexuellen Missbrauch von Kindern, terroristische Inhalte, Hassrede oder gefälschte Waren. Die Plattformen sind verpflichtet, solche Inhalte zu melden und zu entfernen, einschließlich Mobbing, Cybergewalt und Nichtzustimmung zur Bildverbreitung. Sehr große Plattformen (VLOP) wie Facebook, Instagram, TikTok oder X unterliegen zusätzlichen Regeln. Die Europäische Kommission kann Strafen in Höhe von Hunderten Millionen Euro oder EU-weite Verbote verhängen. Im Februar wurde ein Verfahren gegen TikTok wegen Mängeln beim Schutz Minderjähriger, der Transparenz von Werbung und schädlicher Inhalte eröffnet.

Der European Media Freedom Act (EMFA) wiederum, im April 2024 angenommen, soll die Medienfreiheit im digitalen Umfeld schützen. Artikel 18 erlegt VLOP die Pflicht auf, eine deklarative Funktionalität für Medienanbieter zu implementieren. Medien müssen die Erfüllung von Kriterien erklären: Medienanbieter zu sein, mit Art. 6 EMFA übereinzustimmen, redaktionelle Unabhängigkeit von Staaten, politischen Parteien und Drittländern, sich Regulierungs- oder Selbstregulierungsmechanismen zu unterwerfen sowie keine KI-Inhalte ohne menschliche Kontrolle zu enthalten.

Im Rahmen des sogenannten Trilogs (Verhandlungen zwischen Kommission, Rat und Parlament) findet derzeit eine schwere Schlacht um die Altersverifikation in sozialen Medien statt. Die Kommission fordert obligatorische Kontrollen für Messenger (z. B. WhatsApp, Signal) und App-Stores (Google Play, Apple App Store). Nutzer müssten ihr Alter z. B. biometrisch durch Gesichtsscan oder mit Ausweisdokumenten nachweisen. Der Rat unterstützt grundsätzlich eine solche Auslegung, verlangt jedoch, dass die Methoden datenschutzfreundlich, transparent und nicht diskriminierend sind. Das Parlament hingegen lehnt jede Verpflichtung für Messenger ab und macht sie optional, mit Schwerpunkt auf weniger invasiven Methoden wie Verhaltensanalyse (TikTok). Für App-Stores – nur Alterskennzeichnungen und Einwilligungen der Eltern.

Die Verhandlungen dauern an, und es ist nicht sicher, ob die Parteien zu einer Einigung kommen. Vorübergehende KI-Kontrollregeln laufen im April 2026 aus.

[Autorin Aleksandra Fedorska ist Journalistin von Tysol.pl sowie zahlreichen polnischen und deutschen Medien]

[Titel, Lead, Abschnitte „Was Sie wissen müssen“, „Was bedeutet das für Nutzer“ und FAQ von der Redaktion]