in

Dzieci padają ofiarami cyfrowych drapieżników. Ministerstwo w końcu się obudziło

Resort sprawiedliwości zapowiada walkę z deepfake’ami, które niszczą życie najmłodszym. Eksperci ostrzegają jednak, że na słowach może się skończyć – bo na konkretne działania Polska wciąż czeka.

deepfake co to znaczy po polsku
Fot. Depositphotos

Twarz dziecka wklejona na nagie ciało, sfabrykowany film o seksualnym charakterze krążący po sieci – to nie scenariusz dystopijnego serialu, lecz coraz powszechniejszy problem polskich rodzin. Technologia, która niedawno wydawała się ciekawostką, stała się narzędziem krzywdzenia bezbronnych.

Fala cyfrowej przemocy zalewa internet, a prawo nie nadąża

Skala zjawiska rośnie w zastraszającym tempie, a dotychczasowe regulacje przypominają parasol z dziurami – niby chronią, ale przemakają na wylot. Specjaliści od lat biją na alarm, organizacje pozarządowe przedstawiają rekomendacje, instytucje unijne wdrażają kolejne akty prawne. Polska wciąż pozostaje jednak w tyle z ich implementacją.

Teraz jednak pojawiła się nadzieja na zmianę. Ministerstwo Sprawiedliwości ogłosiło decyzję, która – jeśli nie pozostanie na papierze – może realnie zmienić sytuację pokrzywdzonych. Czy tym razem za deklaracjami pójdą czyny?

Resort powołuje specjalny zespół. Minister mówi o ochronie dzieci

Ministerstwo Sprawiedliwości zdecydowało się powołać zespół ekspertów, którego zadaniem będzie przeanalizowanie obowiązujących przepisów i wypracowanie konkretnych propozycji legislacyjnych. Główny cel to skuteczniejsza walka z cyfrową przemocą, ze szczególnym uwzględnieniem deepfake’ów i tzw. deepnude – materiałów generowanych przez sztuczną inteligencję, przedstawiających osoby w fałszywych, często seksualnych kontekstach.

Minister Waldemar Żurek nie pozostawił wątpliwości co do motywacji resortu. Podkreślił, że nie można dopuścić do sytuacji, w której prosta aplikacja niszczy życie najmłodszym i prowadzi do dramatów. Posłanka Monika Rosa, szefowa sejmowej komisji ds. dzieci i młodzieży, zwróciła uwagę na to, jak łatwo każdy może stać się ofiarą – wystarczy jedno zdjęcie, by czyjaś twarz trafiła na sfabrykowany materiał.

Ministerstwo zaznaczyło, że priorytetem jest trojaki cel – pociąganie sprawców do odpowiedzialności, ochrona ofiar oraz wzmocnienie obowiązków platform cyfrowych. Obecnie pokrzywdzeni mogą liczyć jedynie na pośrednie mechanizmy obronne – przepisy o ochronie wizerunku, dóbr osobistych czy regulacje wynikające z prawa autorskiego i RODO.

Żadne z tych narzędzi nie gwarantuje jednak szybkiego usunięcia krzywdzących treści, na co we wrześniu 2025 roku zwracał uwagę Urząd Ochrony Danych Osobowych. UODO apelował wówczas do wicepremiera Krzysztofa Gawkowskiego o rozpoczęcie prac legislacyjnych i kładł nacisk na odpowiedzialność gigantów technologicznych za wykrywanie i oznaczanie zmanipulowanych materiałów.

Ekspert nie kryje frustracji. „Powinniśmy działać, a nie gadać”

Marcel Kiełtyka, członek zarządu stowarzyszenia Demagog, w rozmowie z portalem Zero.pl nie ukrywa mieszanych uczuć. Docenia, że temat zaczyna być traktowany poważnie, ale przestrzega przed pułapką pozorowanych działań. Według niego powoływanie kolejnych zespołów nie może zastępować realnych zmian, a diagnoza problemu istnieje od dawna – brakuje natomiast politycznej sprawczości.

Ekspert przypomina, że Unia Europejska dysponuje już gotowymi narzędziami. Akt o Usługach Cyfrowych (DSA) zobowiązuje platformy społecznościowe do ograniczania widoczności nielegalnych treści i błyskawicznego reagowania na zgłoszenia. Z kolei unijne rozporządzenie o sztucznej inteligencji (AI Act) nakłada obowiązek identyfikowania i oznaczania materiałów wygenerowanych przez AI.

Problem polega na tym, że wdrażanie tych regulacji nad Wisłą jest poważnie opóźnione. Kiełtyka przypomina, że w styczniu prezydent Karol Nawrocki zawetował ustawę implementującą DSA, argumentując, iż wykracza ona poza unijne wymogi i może zagrażać wolności słowa. Zdaniem eksperta konieczne jest nie tylko tworzenie nowego prawa, lecz przede wszystkim egzekwowanie już istniejącego.

Kiełtyka zwraca uwagę, że problem deepfake’ów nie ogranicza się do dzieci – dotyka także osób publicznych, a nierzadko sami politycy nieświadomie rozpowszechniają sfabrykowane treści. Kluczowe jest więc ponadpartyjne podejście do bezpieczeństwa cyfrowego i gotowość do przeprosin oraz sprostowań, gdy ktoś da się nabrać na zmanipulowany materiał.  Ekspert postuluje także wprowadzenie surowych kar za publikowanie sfabrykowanych materiałów seksualnych oraz usprawnienie procedur ich usuwania z sieci. Jak ocenia, mechanizmy te funkcjonują w innych krajach Unii od lat – Polsce brakuje jedynie woli, by po nie sięgnąć.

26-letnia uczestniczka „The Voice” nie żyje. Okoliczności śmierci porażają

ołowica objawy choroby

Niewidzialny zabójca czai się w domach tysięcy Polaków. Lekarze alarmują