Zdjęcia z Instagrama, Snapchata, szkolnych profili. Uśmiechnięte twarze, codzienność, młodość. Wystarczy jedno kliknięcie, aby ktoś zapisał je na swoim telefonie. A potem kolejne – już w zupełnie innym celu.
Dziś coraz częściej te zdjęcia stają się „surowcem” do tworzenia deepfake’ów o charakterze seksualnym. Za pomocą łatwo dostępnych aplikacji typu „nudify” nastolatkowie są w stanie wygenerować fałszywe nagie zdjęcia swoich koleżanek – szybko, anonimowo i bez większych umiejętności technicznych.
To nie jest już przyszłość. To dzieje się teraz.
Zjawisko rozwija się od kilku lat, ale wraz z rozwojem generatywnej sztucznej inteligencji gwałtownie przyspieszyło. Analizy dziennikarskie platformy Wired pokazują przypadki tego typu w co najmniej 28 krajach.
To jednak tylko wierzchołek góry lodowej. Szacunki UNICEF mówią nawet o 1,2 miliona dzieci, które mogły paść ofiarą seksualnych deepfake’ów w ciągu jednego roku. W badaniach Save the Children co piąty młody człowiek w Hiszpanii przyznał, że ktoś stworzył jego fałszywy nagi wizerunek.
To pokazuje jedno: problem nie jest incydentalny. Jest systemowy.
Bo to przemoc, która nie kończy się w momencie publikacji.
Ofiary często:
odczuwają silny wstyd i upokorzenie
wycofują się z życia szkolnego i społecznego
boją się, że materiały „będą krążyć w internecie na zawsze”
żyją w ciągłym napięciu i poczuciu utraty kontroli
W przeciwieństwie do przemocy rówieśniczej w świecie realnym, deepfake:
może rozprzestrzenić się błyskawicznie
jest trudny do usunięcia
może być wielokrotnie kopiowany i modyfikowany
tworzy iluzję „dowodu”, który dla innych wygląda jak prawda
W niemal wszystkich opisanych przypadkach sprawcami są nastoletni chłopcy, a ofiarami dziewczęta z tej samej szkoły. To dodatkowo wzmacnia poczucie zdrady i zagrożenia w najbliższym środowisku rówieśniczym.
Jeszcze kilka lat temu stworzenie realistycznego deepfake’a wymagało wiedzy i czasu. Dziś wystarczy aplikacja lub bot dostępny online.
Sztuczna inteligencja:
skróciła czas tworzenia do minut
obniżyła próg wejścia niemal do zera
zwiększyła realizm materiałów
umożliwiła masową skalę działania
To oznacza, że problem przestał dotyczyć „zaawansowanych użytkowników”. Dotyczy zwykłych nastolatków.
W niektórych krajach szkoły już podejmują konkretne działania. W Australii i Korei Południowej ogranicza się publikowanie zdjęć uczniów — zamiast twarzy pojawiają się sylwetki, zdjęcia z daleka lub grafiki zastępcze, właśnie ze względu na ryzyko wykorzystania ich do tworzenia deepfake’ów.
To pokazuje skalę zagrożenia, ale też rodzi pytania: czy rozwiązaniem jest ograniczanie widoczności dzieci, czy raczej edukacja i odpowiedzialność cyfrowa?
Nie zatrzymamy rozwoju technologii. Ale możemy przygotować młodych ludzi na jej konsekwencje.
Kluczowe działania to:
edukacja o zgodzie i wizerunku (także cyfrowym)
rozmowy/ warsztaty/ spotkania edukacyjne dla uczniów na temat etycznego używania AI
budowanie empatii i świadomości skutków
jasne procedury reagowania w szkołach
wsparcie psychologiczne dla ofiar
Równie ważne jest nazwanie rzeczy po imieniu: tworzenie seksualnych deepfake’ów z udziałem nieletnich to forma przemocy seksualnej i może być traktowane jako przestępstwo związane z materiałami CSAM.
Zobacz planowane działania Fundacji Łowickie FBI: TUTAJ
Jak powiedział jeden z ekspertów zajmujących się ochroną dzieci online: trudno dziś znaleźć szkołę, której ten problem w jakiś sposób nie dotknął.
Dlatego nie powinniśmy pytać „czy to się wydarzy”, ale "czy jesteśmy na to przygotowani"?
Bo w świecie, w którym jedno zdjęcie może zostać użyte przeciwko dziecku, bezpieczeństwo cyfrowe przestaje być dodatkiem do edukacji. Staje się jej fundamentem.
Artykuł powstał na podstawie materiału „The Deepfake Nudes Crisis in Schools Is Much Worse Than You Thought” opublikowanego przez WIRED: https://www.wired.com/story/deepfake-nudify-schools-global-crisis/
© 2025 Fundacja Łowickie Forum Bezpiecznego Internetu