person holding black iphone 4
23 kwietnia 2026

Fałszywe nagie zdjęcia, prawdziwe cierpienie

Zaczyna się niewinnie. Od zdjęcia.

Zdjęcia z Instagrama, Snapchata, szkolnych profili. Uśmiechnięte twarze, codzienność, młodość. Wystarczy jedno kliknięcie, aby ktoś zapisał je na swoim telefonie. A potem kolejne – już w zupełnie innym celu.

Dziś coraz częściej te zdjęcia stają się „surowcem” do tworzenia deepfake’ów o charakterze seksualnym. Za pomocą łatwo dostępnych aplikacji typu „nudify” nastolatkowie są w stanie wygenerować fałszywe nagie zdjęcia swoich koleżanek – szybko, anonimowo i bez większych umiejętności technicznych.

To nie jest już przyszłość. To dzieje się teraz.

Nowy wymiar przemocy rówieśniczej

Zjawisko rozwija się od kilku lat, ale wraz z rozwojem generatywnej sztucznej inteligencji gwałtownie przyspieszyło. Analizy dziennikarskie platformy Wired pokazują przypadki tego typu w co najmniej 28 krajach.

To jednak tylko wierzchołek góry lodowej. Szacunki UNICEF mówią nawet o 1,2 miliona dzieci, które mogły paść ofiarą seksualnych deepfake’ów w ciągu jednego roku. W badaniach Save the Children co piąty młody człowiek w Hiszpanii przyznał, że ktoś stworzył jego fałszywy nagi wizerunek.

To pokazuje jedno: problem nie jest incydentalny. Jest systemowy.

Dlaczego to takie niebezpieczne?

Bo to przemoc, która nie kończy się w momencie publikacji.

Ofiary często:

  • odczuwają silny wstyd i upokorzenie

  • wycofują się z życia szkolnego i społecznego

  • boją się, że materiały „będą krążyć w internecie na zawsze”

  • żyją w ciągłym napięciu i poczuciu utraty kontroli

 

W przeciwieństwie do przemocy rówieśniczej w świecie realnym, deepfake:

  • może rozprzestrzenić się błyskawicznie

  • jest trudny do usunięcia

  • może być wielokrotnie kopiowany i modyfikowany

  • tworzy iluzję „dowodu”, który dla innych wygląda jak prawda

W niemal wszystkich opisanych przypadkach sprawcami są nastoletni chłopcy, a ofiarami dziewczęta z tej samej szkoły. To dodatkowo wzmacnia poczucie zdrady i zagrożenia w najbliższym środowisku rówieśniczym.

Technologia, która obniżyła próg

Jeszcze kilka lat temu stworzenie realistycznego deepfake’a wymagało wiedzy i czasu. Dziś wystarczy aplikacja lub bot dostępny online.

Sztuczna inteligencja:

  • skróciła czas tworzenia do minut

  • obniżyła próg wejścia niemal do zera

  • zwiększyła realizm materiałów

  • umożliwiła masową skalę działania

To oznacza, że problem przestał dotyczyć „zaawansowanych użytkowników”. Dotyczy zwykłych nastolatków.

Szkoły zaczynają reagować

W niektórych krajach szkoły już podejmują konkretne działania. W Australii i Korei Południowej ogranicza się publikowanie zdjęć uczniów — zamiast twarzy pojawiają się sylwetki, zdjęcia z daleka lub grafiki zastępcze, właśnie ze względu na ryzyko wykorzystania ich do tworzenia deepfake’ów.

To pokazuje skalę zagrożenia, ale też rodzi pytania: czy rozwiązaniem jest ograniczanie widoczności dzieci, czy raczej edukacja i odpowiedzialność cyfrowa?

Co możemy zrobić?

Nie zatrzymamy rozwoju technologii. Ale możemy przygotować młodych ludzi na jej konsekwencje.

Kluczowe działania to:

  • edukacja o zgodzie i wizerunku (także cyfrowym)

  • rozmowy/ warsztaty/ spotkania edukacyjne dla uczniów na temat etycznego używania AI

  • budowanie empatii i świadomości skutków

  • jasne procedury reagowania w szkołach

  • wsparcie psychologiczne dla ofiar

 

Równie ważne jest nazwanie rzeczy po imieniu: tworzenie seksualnych deepfake’ów z udziałem nieletnich to forma przemocy seksualnej i może być traktowane jako przestępstwo związane z materiałami CSAM.

Zobacz planowane działania Fundacji Łowickie FBI: TUTAJ

Najważniejsze pytanie

Jak powiedział jeden z ekspertów zajmujących się ochroną dzieci online: trudno dziś znaleźć szkołę, której ten problem w jakiś sposób nie dotknął.

Dlatego nie powinniśmy pytać „czy to się wydarzy”, ale "czy jesteśmy na to przygotowani"?

Bo w świecie, w którym jedno zdjęcie może zostać użyte przeciwko dziecku, bezpieczeństwo cyfrowe przestaje być dodatkiem do edukacji. Staje się jej fundamentem.

Artykuł powstał na podstawie materiału „The Deepfake Nudes Crisis in Schools Is Much Worse Than You Thought” opublikowanego przez WIRED: https://www.wired.com/story/deepfake-nudify-schools-global-crisis/

 

 

 

 

Fundacja Łowickie Forum Bezpiecznego Internetu

KRS: 0001201127

 © 2025 Fundacja Łowickie Forum Bezpiecznego Internetu