Unia Europejska wzmaga wysiłek kontroli internetu. Regulacje jak Digital Services Act (DSA), Digital Markets Act (DMA) czy European Media Freedom Act (EMFA) nakładają na media takie jak Meta, TikTok czy X (dawny Twitter) surowe obowiązki. Mniemanym celem tych działań jest walka z dezinformacją, ochrona dzieci i zapewnienie przejrzystości, ale krytycy ostrzegają przed nadmierną inwigilacją i utratą wolności w sieci.

Digital Services Act (DSA), w pełni obowiązujący od lutego 2024 r., nakłada na platformy social media odpowiedzialność za nielegalne treści użytkowników, takie jak materiały o nadużyciach seksualnych wobec dzieci, treści terrorystyczne, mowa nienawiści czy podróbki towarów. Platformy są zawiązywane do zgłaszania i usuwania takich treści, w tym nękania, cyberprzemocy i niezgody na udostępnianie obrazów. Bardzo duże platformy (VLOP), jak Facebook, Instagram, TikTok czy X, podlegają dodatkowym regułom. Komisja Europejska może nakładać kary do setek milionów euro lub zakazy w całej UE. W lutym wszczęto postępowanie przeciwko TikTokowi za braki w ochronie nieletnich, przejrzystości reklam i treści szkodliwych.

Z kolei European Media Freedom Act (EMFA), przyjęty w kwietniu 2024 r., ma chronić wolność mediów w środowisku cyfrowym. Artykuł 18 nakłada na VLOP obowiązek wdrożenia funkcjonalności deklaracyjnej dla dostawców usług medialnych. Media muszą zadeklarować spełnienie kryteriów: bycie dostawcą mediów, zgodność z art. 6 EMFA, niezależność redakcyjną od państw, partii politycznych i krajów trzecich, poddanie się regulacjom lub mechanizmom samoregulacyjnym oraz brak treści AI bez ludzkiej kontroli.

W ramach tzw. trilogu (negocjacje między Komisją, Radą i Parlamentem) toczy się obecnie ciężka batalia o weryfikację wieku w social mediach. Komisja żąda obowiązkowych kontroli dla komunikatorów (np. WhatsApp, Signal) i sklepów app (Google Play, Apple App Store). Użytkownicy musieliby udowodnić swój wiek np. biometrycznie przez skan twarzy lub dokumentami tożsamości. Rada popiera zasadniczo taką wykładnię, lecz wymaga, by metody były przyjazne prywatności, transparentne i niedyskryminujące. Natomiast parlament odrzuca wszelką obowiązkowość dla komunikatorów, czyniąc ją opcjonalną, z naciskiem na mniej inwazyjne metody jak analiza zachowań (TikTok). Dla App Store - tylko etykiety wieku i zgody rodziców.

Negocjacje nadal trwają i nie ma pewności, czy strony dojdą do porozumienia. Tymczasowe reguły kontroli przez AI wygasają w kwietniu 2026.

[Autor Aleksandra Fedorska jest dziennikarką Tysol.pl oraz licznych polskich i niemieckich mediów]

[Tytuł, lead, sekcje "Co musisz wiedzieć", "Co to oznacza dla użytkowników" i FAQ od redakcji]