O dezinformacji z wykorzystanie mówi głównie w kontekście polityki czy oszustw finansowych z wykorzystaniem wizerunku znanych osób. Tymczasem, jak wynika z raportu Obserwatorium Demokracji Cyfrowej, do którego dotarła „Rzeczpospolita”, aż 90 proc. zastosowania tej technologii dotyczy „niekonsensualnych syntetycznych podobizn intymnych” potocznie zwanych też „deep porn”. W niemal stu procentach ofiarami tych działań są kobiety (przykładowo, amerykański raport dotyczący stosowania deep porn wobec członków Kongresu wykazał, że na 26 poszkodowanych 25 stanowiły kobiety).
Dr Karolina Mania (współautorka raportu „Deepfake i nadużycia na tle seksualnym – prawo wobec wyzwań syntretycznych mediów”) – wskazuje, iż ofiary niekonsensualnej pornografii zmagają się z długotrwałymi negatywnymi skutkami psychologicznymi ataków, a wiele kobiet decyduje się na ograniczenie swojej aktywności online w obawie przed ponownym wykorzystaniem ich wizerunku. Konsekwencje mają zatem również wymiar społeczny i polityczny.
Czytaj więcej
Prokuratura przyznaje, że przestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji,...
Tymczasem przepis penalizujący „tradycyjne” naruszenie intymności seksualnej, tj. art. 191a k.k., mówi jedynie, że karze podlega ten, kto „utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia”. Zdaniem autorów raportu taka definicja nie odnosi się wprost do treści wygenerowanych przez AI, a więc ich ściganie w oparciu o ten przepis może być trudne.
– W doktrynie nie ma jednoznacznego podejścia i czasem rozszerzająca interpretacja może nie być uprawniona. Znaczna część syntetycznej pornografii to sytuacje, w których na znany wcześniej materiał nałożono twarz innej kobiety. Dlatego potrzebujemy precyzyjnych przepisów, które będą chronić ofiary – mówi Mateusz Łabuz, jeden ze współautorów raportu.