Twarz dziecka wklejona na nagie ciało, sfabrykowany film o seksualnym charakterze krążący po sieci – to nie scenariusz dystopijnego serialu, lecz coraz powszechniejszy problem polskich rodzin. Technologia, która niedawno wydawała się ciekawostką, stała się narzędziem krzywdzenia bezbronnych.
Fala cyfrowej przemocy zalewa internet, a prawo nie nadąża
Skala zjawiska rośnie w zastraszającym tempie, a dotychczasowe regulacje przypominają parasol z dziurami – niby chronią, ale przemakają na wylot. Specjaliści od lat biją na alarm, organizacje pozarządowe przedstawiają rekomendacje, instytucje unijne wdrażają kolejne akty prawne. Polska wciąż pozostaje jednak w tyle z ich implementacją.
Teraz jednak pojawiła się nadzieja na zmianę. Ministerstwo Sprawiedliwości ogłosiło decyzję, która – jeśli nie pozostanie na papierze – może realnie zmienić sytuację pokrzywdzonych. Czy tym razem za deklaracjami pójdą czyny?
Resort powołuje specjalny zespół. Minister mówi o ochronie dzieci
Ministerstwo Sprawiedliwości zdecydowało się powołać zespół ekspertów, którego zadaniem będzie przeanalizowanie obowiązujących przepisów i wypracowanie konkretnych propozycji legislacyjnych. Główny cel to skuteczniejsza walka z cyfrową przemocą, ze szczególnym uwzględnieniem deepfake’ów i tzw. deepnude – materiałów generowanych przez sztuczną inteligencję, przedstawiających osoby w fałszywych, często seksualnych kontekstach.
Minister Waldemar Żurek nie pozostawił wątpliwości co do motywacji resortu. Podkreślił, że nie można dopuścić do sytuacji, w której prosta aplikacja niszczy życie najmłodszym i prowadzi do dramatów. Posłanka Monika Rosa, szefowa sejmowej komisji ds. dzieci i młodzieży, zwróciła uwagę na to, jak łatwo każdy może stać się ofiarą – wystarczy jedno zdjęcie, by czyjaś twarz trafiła na sfabrykowany materiał.
W Dniu Bezpiecznego Internetu mówimy jeszcze głośniej: przemoc w sieci, w tym deepfake i tzw. deepnude, krzywdzi w realnym świecie – szczególnie dzieci i młodzież.
Ministerstwo Sprawiedliwości powołuje specjalny Zespół z udziałem ekspertów i instytucji, który we współpracy z… pic.twitter.com/TJPaBdUnvm
— Min. Sprawiedliwości (@MS_GOV_PL) February 10, 2026
Ministerstwo zaznaczyło, że priorytetem jest trojaki cel – pociąganie sprawców do odpowiedzialności, ochrona ofiar oraz wzmocnienie obowiązków platform cyfrowych. Obecnie pokrzywdzeni mogą liczyć jedynie na pośrednie mechanizmy obronne – przepisy o ochronie wizerunku, dóbr osobistych czy regulacje wynikające z prawa autorskiego i RODO.
Żadne z tych narzędzi nie gwarantuje jednak szybkiego usunięcia krzywdzących treści, na co we wrześniu 2025 roku zwracał uwagę Urząd Ochrony Danych Osobowych. UODO apelował wówczas do wicepremiera Krzysztofa Gawkowskiego o rozpoczęcie prac legislacyjnych i kładł nacisk na odpowiedzialność gigantów technologicznych za wykrywanie i oznaczanie zmanipulowanych materiałów.
Ekspert nie kryje frustracji. „Powinniśmy działać, a nie gadać”
Marcel Kiełtyka, członek zarządu stowarzyszenia Demagog, w rozmowie z portalem Zero.pl nie ukrywa mieszanych uczuć. Docenia, że temat zaczyna być traktowany poważnie, ale przestrzega przed pułapką pozorowanych działań. Według niego powoływanie kolejnych zespołów nie może zastępować realnych zmian, a diagnoza problemu istnieje od dawna – brakuje natomiast politycznej sprawczości.
Ekspert przypomina, że Unia Europejska dysponuje już gotowymi narzędziami. Akt o Usługach Cyfrowych (DSA) zobowiązuje platformy społecznościowe do ograniczania widoczności nielegalnych treści i błyskawicznego reagowania na zgłoszenia. Z kolei unijne rozporządzenie o sztucznej inteligencji (AI Act) nakłada obowiązek identyfikowania i oznaczania materiałów wygenerowanych przez AI.
Problem polega na tym, że wdrażanie tych regulacji nad Wisłą jest poważnie opóźnione. Kiełtyka przypomina, że w styczniu prezydent Karol Nawrocki zawetował ustawę implementującą DSA, argumentując, iż wykracza ona poza unijne wymogi i może zagrażać wolności słowa. Zdaniem eksperta konieczne jest nie tylko tworzenie nowego prawa, lecz przede wszystkim egzekwowanie już istniejącego.
Kiełtyka zwraca uwagę, że problem deepfake’ów nie ogranicza się do dzieci – dotyka także osób publicznych, a nierzadko sami politycy nieświadomie rozpowszechniają sfabrykowane treści. Kluczowe jest więc ponadpartyjne podejście do bezpieczeństwa cyfrowego i gotowość do przeprosin oraz sprostowań, gdy ktoś da się nabrać na zmanipulowany materiał. Ekspert postuluje także wprowadzenie surowych kar za publikowanie sfabrykowanych materiałów seksualnych oraz usprawnienie procedur ich usuwania z sieci. Jak ocenia, mechanizmy te funkcjonują w innych krajach Unii od lat – Polsce brakuje jedynie woli, by po nie sięgnąć.


