Jak walczyć z fałszywymi materiałami dla dorosłych generowanymi przez AI?

Deepfake, czyli filmiki z wizerunkiem prawdziwych osób wytworzony przez sztuczną inteligencję, wspomina się głównie w kontekście dezinformacji. Prawo nie do końca przed tym chroni.

Publikacja: 19.03.2025 22:05

Jak walczyć z fałszywymi materiałami dla dorosłych generowanymi przez AI?

Foto: Adobe Stock

O dezinformacji z wykorzystanie mówi głównie w kontekście polityki  czy oszustw finansowych z wykorzystaniem wizerunku znanych osób. Tymczasem, jak wynika z raportu Obserwatorium Demokracji Cyfrowej, do którego dotarła „Rzeczpospolita”, aż 90 proc. zastosowania tej technologii dotyczy „niekonsensualnych syntetycznych podobizn intymnych” potocznie zwanych też „deep porn”. W niemal stu procentach ofiarami tych działań są kobiety (przykładowo, amerykański raport dotyczący stosowania deep porn wobec członków Kongresu wykazał, że na 26 poszkodowanych 25 stanowiły kobiety). 

Dr Karolina Mania (współautorka raportu „Deepfake i nadużycia na tle seksualnym – prawo wobec wyzwań syntretycznych mediów”) – wskazuje, iż ofiary niekonsensualnej pornografii zmagają się z długotrwałymi negatywnymi skutkami psychologicznymi ataków, a wiele kobiet decyduje się na ograniczenie swojej aktywności online w obawie przed ponownym wykorzystaniem ich wizerunku. Konsekwencje mają zatem również wymiar społeczny i polityczny. 

Czytaj więcej

Przestępcy wykorzystują AI. Wystarczy im próbka naszego głosu czy zdjęcie

Tymczasem przepis penalizujący „tradycyjne” naruszenie intymności seksualnej, tj. art. 191a k.k., mówi jedynie, że karze podlega ten, kto „utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia”. Zdaniem autorów raportu taka definicja nie odnosi się wprost do treści wygenerowanych przez AI, a więc ich ściganie w oparciu o ten przepis może być trudne.

– W doktrynie nie ma jednoznacznego podejścia i czasem rozszerzająca interpretacja może nie być uprawniona. Znaczna część syntetycznej pornografii to sytuacje, w których na znany wcześniej materiał nałożono twarz innej kobiety. Dlatego potrzebujemy precyzyjnych przepisów, które będą chronić ofiary – mówi Mateusz Łabuz, jeden ze współautorów raportu.

I dodaje, że przepisy takie wprowadziły już niektóre stany USA, ale też Wielka Brytania, Australia czy Korea Południowa.

Problem z definicją sztucznej inteligencji i określeniem znamion czynu

Problem jednak w tym, że wprowadzając sankcję karną, trzeba dokładnie określić znamiona czynu zabronionego. A nawet unijny AI Akt nie definiuje samego pojęcia sztucznej inteligencji. Nie daje on też oddzielnych narzędzi do ścigania tego rodzaju deepfake’ów. Zresztą, jak zauważa dr Michał Nowakowski, radca prawny z Zackiewicz & Partners, specjalista z zakresu prawa sztucznej inteligencji, osoby prywatne działające poza sferą zawodową (czyli np. licealista, który stworzył taki materiał na złość koleżance) nie są objęte AI Aktem.

Czytaj więcej

Deepfake podbija pornografię. Zmanipulowane filmy z gwiazdami

– Od dawna też postuluje się zmianę kodeksu karnego, przez wprowadzenie jednoznacznego przepisu zakazującego wykorzystywania wizerunku na potrzeby tworzenia takich deepfake’ów o charakterze pornograficznym – tłumaczy ekspert.

I dodaje, że definicja deepfake’ów (zawarta w art. 50 AI Aktu) jest wystarczająca dla takiej ochrony, nie trzeba w tym celu definiować prawnie samej sztucznej inteligencji (szczególnie aspektów technicznych), co byłoby bardzo trudne i niecelowe.

– Przepis powinien jednak wprost zakazywać wykorzystywania rezultatów wykorzystania rozwiązania, np. w odniesieniu do niekonsensualnych materiałów pornograficznych. Precyzja jest tutaj niezbędna, bo mówimy o odpowiedzialności karnej. Nie można też doprowadzić do całkowitego zakazu stosowania deepfake’ów jako takich. Mimo negatywnych konotacji z nazwą „deepfake” jest ona czasem przydatna i potrzebna – tłumaczy ekspert.

Inną nadzieją na pomoc ofiarom jest unijna dyrektywa ws. zwalczania przemocy domowej i przemocy wobec kobiet. Wprost nakazuje ona penalizację opisanych wyżej praktyk – a termin na jej wdrożenie Polska ma do 14 czerwca 2027 r.

Przepisy mają też chronić małoletnich

Inaczej sprawa wygląda w przypadku „syntetycznej pornografii” z udziałem małoletnich. Wówczas w przypadku udostępniania nie ma znaczenia, czy jest to możliwe do zidentyfikowania dziecko, czy nie, gdyż samo rozpowszechnianie takich treści jest szkodliwe społecznie. Przepisy te mają chronić nie tylko konkretne dziecko, ale i całe społeczeństwo. Ponadto na poziomie udostępniania różnicowanie odpowiedzialności w zależności, czy chodzi o prawdziwe nagranie, czy deepfake, pozwalałoby sprawcom na kwestionowanie autentyczności treści. Takie zjawiska są już opisywane jako deep fake defence i stanowią zagrożenie dla systemu sprawiedliwości. Aktualnie nawet biegli mają problemy z odróżnieniem prawdziwych nagrań od tych wygenerowanych przez AI.
– Różnicowany tu mógłby być rozmiar kary. Ale dla nieświadomego odbiorcy, który nie wie, że nie ma do czynienia z prawdziwym dzieckiem, wartość materiału jest taka sama – mówi Mateusz Łabuz. – Biegli już teraz mają pełne ręce roboty w odróżnianiu takich treści, co sprawia, że ściganie osób, które dopuściły się skrzywdzenia prawdziwych dzieci, jest utrudnione, a pomoc dla ofiar może przyjść później lub wręcz wcale. A przecież technologia wciąż się rozwija. 

Art. 202. § 4b. k.k., penalizujący m.in. produkowanie pornografii z udziałem małoletnich, mówi wprost o „wytworzonym lub przetworzonym wizerunku” dziecka, co znajduje zastosowanie także do treści generowanych przez AI. Zdaniem dr. hab. Mikołaja Małeckiego z UJ (również współautora raportu) nie wystarcza to jednak do skutecznego penalizowania nowych form przestępstw, gdyż przepisy nie są dostosowane do nowej rzeczywistości technologicznej. Dr Małecki podkreśla, że w niektórych sytuacjach treści generowane przez AI powinny być traktowane jak treści z udziałem prawdziwych małoletnich. 

Co mówią przepisy
Dyrektywa 2024/1385 ws. zwalczania przemocy wobec kobiet i przemocy domowej

Odnośne przestępstwo (…) powinno obejmować wszystkie rodzaje takich treści (…), w tym obrazy oraz nagrania audio i wideo nacechowane seksualnie. Powinno ono odnosić się do sytuacji, w których publiczne udostępnianie treści za pomocą ICT [technologii komunikacyjno-informacyjnych] odbywa się bez zgody ofiary, niezależnie od tego, czy ofiara wyraziła zgodę na wytworzenie takich treści bądź przesłała je konkretnej osobie. Przestępstwo to powinno również obejmować wytwarzanie treści bez zgody lub manipulowanie nimi lub ich zmienianie, np. przez edytowanie obrazów, m.in. z wykorzystaniem sztucznej inteligencji, które to treści sprawiają wrażenie, że osoba uczestniczy w czynnościach seksualnych, o ile treści te są następnie udostępniane publicznie za pośrednictwem ICT bez zgody tej osoby. Takie wytwarzanie, manipulowanie lub zmienianie powinno obejmować wytwarzanie treści »deepfake«, w których prezentuje się osoby, przedmioty, miejsca lub inne podmioty bądź wydarzenia wyraźnie podobne do istniejących naprawdę i które przedstawiają czynności seksualne danej osoby i błędnie wydają się innym osobom autentyczne lub prawdziwe. 

O dezinformacji z wykorzystanie mówi głównie w kontekście polityki  czy oszustw finansowych z wykorzystaniem wizerunku znanych osób. Tymczasem, jak wynika z raportu Obserwatorium Demokracji Cyfrowej, do którego dotarła „Rzeczpospolita”, aż 90 proc. zastosowania tej technologii dotyczy „niekonsensualnych syntetycznych podobizn intymnych” potocznie zwanych też „deep porn”. W niemal stu procentach ofiarami tych działań są kobiety (przykładowo, amerykański raport dotyczący stosowania deep porn wobec członków Kongresu wykazał, że na 26 poszkodowanych 25 stanowiły kobiety). 

Pozostało jeszcze 93% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Ochrona zdrowia
Aborcja w dziewiątym miesiącu ciąży. Izabela Leszczyna komentuje dla "Rz"
Praca, Emerytury i renty
Lawinowy wzrost L4 z powodu krztuśca. Alarmujące dane ZUS
W sądzie i w urzędzie
Lex ciągnik na wstecznym. Komornik łatwiej zajmie ruchomości?
Matura i egzamin ósmoklasisty
Szef CKE: W tym roku egzamin ósmoklasisty i matura będą łatwiejsze
Materiał Partnera
Konieczność transformacji energetycznej i rola samorządów
Sądy i trybunały
Sąd: prokuratura ma przeprowadzić śledztwo ws. Małgorzaty Manowskiej