Gdy AI "wskrzesza" Szymborską. Prawne i etyczne wątpliwości wokół sztucznej inteligencji

Coraz częściej media informują o przypadkach generowania przez sztuczną inteligencję wypowiedzi osób, które już od dawna nie żyją. Wywołuje to ryzyko naruszenia dóbr osobistych najbliższych zmarłego, a także praw autorskich.

Publikacja: 06.11.2024 05:12

Gdy AI "wskrzesza" Szymborską. Prawne i etyczne wątpliwości wokół sztucznej inteligencji

Foto: Adobe Stock

Niedawno Radio OFF Kraków w ramach „eksperymentu” uruchomiło audycje prowadzone przez prezenterów wykreowanych za pomocą sztucznej inteligencji. Co więcej podczas jednej z takich audycji, „prowadząca” program Emilia „Emi” Nowak przeprowadziła wywiad z... Wisławą Szymborską. Jako, że rozmowa dotyczyła spraw, które wydarzyły się już po śmierci poetki (np. książek Olgi Tokarczuk czy tegorocznej Literackiej Nagrody Nobla), odpowiedzi również zostały wygenerowane przez AI. Michał Rusinek, prezes Fundacji Wisławy Szymborskiej, zgodził się na to, choć odnosząc się do treści wywiadu stwierdził, że niektórych rzeczy prawdziwa Szymborska by nie powiedziała, a znając ją, jej wywiady i poezję można było zorientować się, że nie mogły to być wypowiedzi noblistki.

Czytaj więcej

Audycje prowadzone przez sztuczną inteligencję. Kto odpowiada za słowa AI?

Wiele osób oburzyło jednak takie „wskrzeszanie” Szymborskiej przez sztuczną inteligencję. Po fali krytycznych komentarzy i publikacji, Radio OFF Kraków zakończyło „eksperyment” z audycjami „prowadzonymi” przez AI. Oznacza to, że nie usłyszymy zapowiadanego na 11 listopada wywiadu z marszałkiem Józefem Piłsudskim. Historia ta pozwala jednak przypuszczać, że w przyszłości może się takich wywiadów pojawiać więcej. Tymczasem nie ma jednoznacznych przepisów pozwalających ocenić takie przypadki z perspektywy prawnej.

AI „wskrzesza” zmarłych? Wypowiedzi w ramach wywiadu nie są traktowane jako utwory, ale mogą naruszać pamięć po osobie zmarłej

– Jeżeli mamy do czynienia z piosenką czy wierszem wygenerowanym przez AI na podstawie wielu utworów danego twórcy, to można zastanowić się czy nie doszło do naruszenia praw autorskich. Podobnie, gdyby utwór taki został stworzony bez użycia AI, poprzez przeróbki i wycinanie fragmentów z wcześniejszych utworów – byłby to wówczas utwór zależny. Z kolei w przypadku „wskrzeszania” aktorów na podstawie ich wcześniejszych występów, mówilibyśmy o ponownym wykorzystaniu artystycznego wykonania – mówi Katarzyna Orzeł, radca prawna z kancelarii Brightspot.

Dodaje przy tym, że wypowiedzi w ramach wywiadów nie są traktowane w doktrynie jako utwory czy artystyczne wykonania, nie przysługują za nie tantiemy. A zatem także w przypadku generowania takich wywiadów nie możemy mówić o naruszeniu prawa autorskiego. Zatem gdy na podstawie wcześniejszych wypowiedzi generowane są nowe i publikowane np. w formie wywiadu, to nie można mówić o ochronie prawnoautorskiej, a raczej o naruszeniu prawa do pamięci o osobie zmarłej.

– Orzecznictwo jest jednoznaczne w kwestii tego, że nie można naruszyć wizerunku osoby nieżyjącej, jako że to dobro osobiste i wygasa w chwili śmierci – tłumaczy Katarzyna Orzeł.

– Ale prawo do kultu pamięci osoby zmarłej jest również bardzo silnie chronionym dobrem osobistym. Do tego stopnia, że można się zastanowić, czy samo tworzenie awatara takiej osoby, przez generowanie jej nowych wypowiedzi czy zdjęć, nie narusza praw osób najbliższych, jako szczególnie z nią związanych. Niekoniecznie muszą być to więc wypowiedzi stawiające tę osobę w złym świetle – dodaje prawniczka.

Czytaj więcej

Jan Skoumal: AI zamiast ekspertów i sztuczna Szymborska. Nowa, wspaniała oferta dla młodych?

Duże znaczenie może mieć to, czy zmarły wyraził za życia zgodę na klonowanie swojego głosu lub wizerunku przez AI

Inna jest sytuacja, gdy dana osoba jeszcze za życia wyrazi zgodę na wykorzystywanie jej wizerunku czy głosu przez generatywną AI.

– Ciężko jest jednak jednoznacznie powiedzieć, czy po śmierci dalej jesteśmy dysponentami swojego wizerunku. Na pewno zgoda jest jednak argumentem, który może być użyty przy badaniu bezprawności wykorzystania wizerunku lub głosu – wskazuje Katarzyna Orzeł.

Na omawiany aspekt zwracają też uwagę inni eksperci.

– Wychodzę z założenia, że aby odtworzyć czyjś głos lub wizerunek w ten sposób, potrzebna jest jego zgoda. Jakiś czas temu lektor który udzielał głosu Dartha Vadera, wyraził uprzednią zgodę na to, aby jego głos był w przyszłości „klonowany” i wykorzystywany na potrzeby różnych produktów. I to nie budzi moich wątpliwości, bo miał szansę tę zgodę wyrazić. Natomiast jeśli mówimy o spadkobiercach praw autorskich, to jestem daleki od stwierdzenia, że obejmują one prawo do „wskrzeszania” kogoś, choć pewnie znajdą się głosy odmienne od mojego – mówi dr Michał Nowakowski, radca prawny i partner w kancelarii Zackiewicz & Partners.

– Czym innym jest wykorzystanie na nowo istniejącego wiersza czy teledysku, a czym innym generowanie nowych wypowiedzi, „wkładanie jej w usta” osoby zmarłej, choć być może ona nigdy by tego nie powiedziała i nie chciałaby powiedzieć – podkreśla ekspert.

I dodaje, że jest to dyskusyjne z punktu widzenia nie tylko przepisów prawa, ale i etyki. Tworzenie tego typu treści bez odpowiedniej zgody może otworzyć drogę do roszczeń o naruszenie dóbr osobistych. Nie ma też dużego znaczenia, czy do takiego odtworzenia użyto narzędzi sztucznej inteligencji, czy innych technologii. Ważna jest zewnętrzna percepcja takiego materiału.

– Zakładając nawet, że mamy na to odpowiednie zgody i umowy, to trzeba się zastanowić czy powinniśmy to robić. Nawet jeżeli uznamy, że z punktu widzenia prawa coś możemy, to może jednak nie powinniśmy? Pamiętajmy o godności ludzkiej – podsumowuje prawnik.

Deep fake i inne problemy. Przepisy o AI nie rozwiążą wszystkich wątpliwości?

Zauważa przy tym, że sam AI Akt zawiera przepisy dotyczące tzw. deep fake’ów, czyli treści generatywnych mających udawać autentyczne. Wprowadzono obowiązek oznaczania ich jako stworzone przez sztuczną inteligencję. Ale chodzi tylko o obowiązek przejrzystości i informowania ludzi, że nie jest to autentyczna wypowiedź, a do stosowania tych przepisów zostały jeszcze prawie dwa lata. Z kolei Katarzyna Orzeł zwraca uwagę, że akt o sztucznej inteligencji nie rozwiewa wszystkich wątpliwości co do tego jak traktować wytwory AI.

– Z jednej strony nie było tu wkładu twórczego człowieka, ale z drugiej, pojawiają się głosy, że należy przyznać takim wytworom prawną ochronę opartą na reżimie prawnoautorskim lub podobnym. Nie zapominajmy też, że wielu artystów używa AI jako narzędzie to tworzenia swoich utworów, więc takie ostre wyłączenie pozbawiałoby ich ochrony – podsumowuje ekspertka.

Czytaj więcej

Rafał Rozwadowski, Przemysław Sotowski: Deepfake, matka wszystkich broni nuklearnych

Niedawno Radio OFF Kraków w ramach „eksperymentu” uruchomiło audycje prowadzone przez prezenterów wykreowanych za pomocą sztucznej inteligencji. Co więcej podczas jednej z takich audycji, „prowadząca” program Emilia „Emi” Nowak przeprowadziła wywiad z... Wisławą Szymborską. Jako, że rozmowa dotyczyła spraw, które wydarzyły się już po śmierci poetki (np. książek Olgi Tokarczuk czy tegorocznej Literackiej Nagrody Nobla), odpowiedzi również zostały wygenerowane przez AI. Michał Rusinek, prezes Fundacji Wisławy Szymborskiej, zgodził się na to, choć odnosząc się do treści wywiadu stwierdził, że niektórych rzeczy prawdziwa Szymborska by nie powiedziała, a znając ją, jej wywiady i poezję można było zorientować się, że nie mogły to być wypowiedzi noblistki.

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Podatki
Skarbówka zażądała 240 tys. zł podatku od odwołanej darowizny. Jest wyrok NSA
Prawo w Polsce
Jest apel do premiera Tuska o usunięcie "pomnika rządów populistycznej władzy"
Edukacja i wychowanie
Ferie zimowe 2025 później niż zazwyczaj. Oto terminy dla wszystkich województw
Praca, Emerytury i renty
Ile trzeba zarabiać, żeby na konto trafiło 5000 zł
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Prawo karne
Rząd zmniejsza liczbę więźniów. Będzie 20 tys. wakatów w celach