Tworzą erotyczne zdjęcia koleżanek ze szkoły: "Tak się bawimy". Coraz więcej ofiar oszustwa

mamadu.pl 2 miesięcy temu
Zdjęcie: Problem rozpowszechniania deepfake'ów, czyli wygenerowanych przez narzędzia AI obrazów z użyciem wizerunku prawdziwej osoby, przybiera na sile w szkołach. fot. 123rf


Fejkowe pornograficzne zdjęcia koleżanki ze szkoły doprowadzą dwóch nastolatków z bydgoskiego liceum przed sąd. To ostrzeżenie dla innych. Jednak tzw. deepfake'i dzięki rozpowszechnieniu AI to problem globalny, który wymaga podjęcia niezwłocznych działań.


Dwóch nieletnich uczniów liceum w Bydgoszczy przerobiło przy użyciu narzędzi AI zdjęcie swojej koleżanki. Jej twarz dodali do fotografii nagiej kobiety uprawiającej seks. O sprawie informuje bydgoska "Gazeta Wyborcza". – Tak się bawimy – powiedzieli dziennikarkom inni uczniowie z bydgoskiego liceum, zastrzegając, iż "przegięciem jest wrzucanie tego do netu".

Twierdzą, iż przerabianie zdjęć koleżanek czy nauczycielek na pornografię to popularna rozrywka wśród uczniów. – Aplikacje AI bez problemu rozbiorą każdego. Nie trzeba wielkiej filozofii. Wystarczy wrzucić zdjęcie w ubraniu, a po kilku minutach mamy nagą postać. Wiadomo, iż to nie jest ciało osoby rozbieranej, ale trudno się tego dopatrzyć – wyjaśniają.

Nie zabawa, a przestępstwo


Wiadomo, iż uczniowie, którym zarzuca się stworzenie deepfake'owych zdjęć koleżanki, otrzymali nagany i obniżone oceny zachowania. Na tym jednak nie koniec konsekwencji dla "żartownisiów".

Bydgoscy policjanci, zawiadomieni przez dyrektora szkoły, pod koniec czerwca skierowali sprawę do sądu rodzinnego. Postępowanie przeciw nastolatkom prowadzone jest w kierunku rozpowszechniania pornografii wśród nieletnich zgodnie z art. 202 Kodeksu Karnego: "Kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada treści pornograficzne przedstawiające wytworzony lub przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej, podlega grzywnie, karze ograniczenia wolności albo więzienia do lat 2".

Problem globalny


Wspomniana sytuacja to nie jedyny incydent tego typu, o którym donoszą media. Jak czytamy na bydgoszcz.wyborcza.pl, ofiarą takiej "zabawy" padł też chłopiec uczęszczający do jednej z podbydgoskich szkół podstawowych. Koleżanki miały przerobić jego zdjęcie, by miało seksualny wydźwięk, i zamieściły na portalu randkowym dla osób LGBT.

Z deepfake'ami już od dłuższego czasu zmagają się szkoły w USA, Wielkiej Brytanii czy Australii. W tej ostatniej w czerwcu szerokim echem odbiła się sytuacja z jednej ze szkół w Victorii. W internecie pojawiły się fejkowe pornograficzne zdjęcia 50 uczennic. Oryginalne zdjęcia pobrano z mediów społecznościowych nastolatek, przerobiono je dzięki AI i udostępniono w sieci. W związku z rozpowszechnianiem tych pornograficznych obrazów aresztowano 17-latka.

Amerykański kongresmen Joe Morelle od 2022 roku prowadzi kampanię o uznanie tworzenia intymnych obrazków bez czyjejś zgody (z ang. NCII, czyli non-consensual intimate imagery) za przestępstwo federalne. Z badań przeprowadzonych w 2019 roku wynika, iż 96 proc. deepfake'ów ma charakter pornograficzny, a ofiarami są w większości kobiety. Z kolei australijski komisarz ds. cyfrowego bezpieczeństwa twierdzi, iż od 2019 r. liczba fałszywych zdjęć wzrosła aż o 550 proc. rok do roku.

– Spróbuj wyobrazić sobie horror, gdy otrzymasz intymne zdjęcia przedstawiające dokładnie ciebie, twoją córkę, żonę lub siostrę, a nie możesz udowodnić, iż tak nie jest – mówił w Kongresie Morelle. – Pornografia deepfake to wykorzystywanie seksualne, jest przemocą i jestem zdumiony, iż nie pozostało przestępstwem federalnym.

Skala problemu już teraz wymyka się spod kontroli, dlatego tak ważne jest, by szkoły i politycy pochylili się nad zjawiskiem tworzenia deepfake'ów. Duże wyzwanie leży też przed rodzicami, by odpowiednio wcześnie uczulali swoje dzieci na niebezpieczeństwa związane z wykorzystywaniem narzędzi AI do tworzenia pornografii, a także na prawne konsekwencje takich działań.

źródła: bydgoszcz.wyborcza.pl, komputerswiat.pl, rochesterbeacon.com, abc.net.au


Idź do oryginalnego materiału