Co najmniej 1,2 mln dzieci z 11 krajów przyznało, że w ciągu ostatniego roku ich zdjęcia zostały poddane manipulacji i stworzono z nich seksualne deepfake’i – oświadczenie UNICEF ws. zjawiska seksualizacji obrazów dzieci generowanych przez sztuczną inteligencję.
„UNICEF jest coraz bardziej zaniepokojony doniesieniami o gwałtownym wzroście liczby dostępnych w internecie, generowanych przez sztuczną inteligencję obrazów dzieci – często także zmanipulowanych i wykorzystujących zjawisko seksualizacji.
Technika deepfake wykorzystuje narzędzia sztucznej inteligencji (AI) do takiego projektowania, generowania lub manipulowania obrazów, filmów lub dźwięków, by wyglądały realistycznie. Jest ona coraz częściej wykorzystywana do tworzenia seksualizowanych treści z udziałem dzieci, w tym poprzez nudification, gdzie AI służy do usunięcia lub zmiany ubrań na zdjęciach w celu stworzenia sfabrykowanych nagich lub seksualizowanych obrazów.
Nowe, przeprowadzone przez UNICEF, ECPAT i INTERPOL w 11 krajach badania potwierdzają skalę tego szybko rosnącego zagrożenia. Co najmniej 1,2 mln dzieci przyznało, że w ciągu ostatniego roku ich zdjęcia zostały poddane takiej manipulacji i stworzono z nich seksualne deepfake’i. W niektórych krajach zjawisko to dotyka nawet 1 na 25 dzieci – odpowiednik jednego dziecka w typowej klasie szkolnej.
Dzieci same są głęboko świadome tego ryzyka. W niektórych krajach objętych badaniem do dwóch trzecich dzieci powiedziało, że obawia się, iż AI może być użyte do tworzenia fałszywych seksualnych obrazów lub filmów. Poziom obaw znacznie różni się między krajami, co podkreśla pilną potrzebę wzmocnienia świadomości, prewencji i środków ochronnych.
Musimy jasno podkreślić: seksualizowane obrazy dzieci generowane lub manipulowane za pomocą narzędzi AI to materiał o charakterze seksualnego wykorzystywania dzieci (CSAM – child sexual abuse material). Nadużycia wykorzystujące technikę deepfake to nadużycia, a krzywda, którą powodują, nie ma nic wspólnego z fikcją.
Gdy używany jest obraz lub tożsamość dziecka, to staje się ono bezpośrednią ofiarą. Nawet bez możliwości identyfikacji konkretnej osoby, generowany przez AI materiał seksualnie wykorzystujący najmłodszych normalizuje taką praktykę, napędza popyt na treści o takim charakterze i stwarza poważne wyzwania dla organów ścigania w identyfikacji i ochronie dzieci potrzebujących pomocy.
UNICEF z całą siłą popiera wysiłki tych deweloperów AI, którzy wdrażają podejścia safety-by-design (zaprojektowane z myślą o bezpieczeństwie) oraz solidne bariery ochronne, by zapobiec niewłaściwemu użyciu swoich systemów. Jednak sytuacja pozostaje nierówna, a zbyt wiele modeli AI nie jest rozwijanych z odpowiednimi zabezpieczeniami. Ryzyka potęgują się, gdy generatywne narzędzia AI są bezpośrednio wbudowane w platformy mediów społecznościowych, gdzie zmanipulowane obrazy szybko się rozprzestrzeniają.
UNICEF pilnie wzywa do podjęcia następujących działań w celu zwalczenia narastającego zagrożenia generowanymi przez AI materiałami seksualnie wykorzystującymi dzieci:
- Wszystkie rządy rozszerzają definicje materiału o charakterze seksualnego wykorzystywania dzieci (CSAM) tak, by obejmowały treści generowane przez AI, i kryminalizują ich tworzenie, pozyskiwanie, posiadanie i dystrybucję.
- Deweloperzy AI wdrażają podejście safety-by-design oraz solidne bariery ochronne, by zapobiec niewłaściwemu użyciu modeli AI.
- Firmy cyfrowe zapobiegają rozpowszechnianiu generowanych przez AI materiałów seksualnie wykorzystujących dzieci. Chodzi nie tylko o usuwanie ich po fakcie, ale także wzmocnienie moderacji treści poprzez inwestycje w technologie detekcji, tak by taki materiał mógł być usuwany natychmiast – nie dni po zgłoszeniu przez ofiarę lub jej przedstawiciela.
Krzywda spowodowana nadużyciami technologii deepfake jest realna i pilna. Dzieci nie mogą czekać, aż prawo nadrobi zaległości.”

