Audycje prowadzone przez sztuczną inteligencję. Kto odpowiada za słowa AI?

Radio Kraków uruchomiło audycje "prowadzone" przez nieistniejących dziennikarzy, których wypowiedzi generuje sztuczna inteligencja. Rodzi to pytanie o odpowiedzialność za ewentualne naruszenia spowodowane tymi treściami. AI Akt niewiele tu jednak pomoże.

Publikacja: 22.10.2024 18:15

Audycje prowadzone przez sztuczną inteligencję. Kto odpowiada za słowa AI?

Foto: adobestock

Od 8 rano 22 października kanał tematyczny OFF, prowadzony przez Radio Kraków, ma być niemal w całości tworzony przez narzędzia sztucznej inteligencji. Ma to być forma „eksperymentu medialno-badawczego” który ma sprawdzić, czy AI jest bardziej szansą, czy zagrożeniem dla mediów. System ten ma udawać trzy osoby. Żadna z tych osób jednak realnie nie istnieje. Pojawia się więc pytanie, kto poniesie odpowiedzialność, jeśli podczas audycji kogoś znieważą lub naruszą dobra osobiste. 

Czytaj więcej

Ustawa o sztucznej inteligencji zapobiegnie manipulacji człowiekiem

– To, że nie obowiązuje jeszcze pełen pakiet przepisów dotyczących sztucznej inteligencji, nie oznacza, że nie znajdziemy odpowiednich rozwiązań w obowiązujących przepisach dotyczących choćby odpowiedzialności za naruszenie dóbr osobistych, czy inne czyny niedozwolone. Systemy sztucznej inteligencji są narzędziem, i jeśli ktoś korzystając z tego narzędzia wyrządzi nam szkodę, możemy żądać, by ją naprawił lub zrekompensował – mówi prof. Marek Świerczyński adwokat z kancelarii Kieszkowska Rutkowska Kolasiński.

– Wykorzystując AI w naszej działalności ponosimy za to odpowiedzialność. Podobnie, jeśli ktoś naruszy nasze prawa korzystając z komputera czy telefonu – dodaje.

Sztuczna inteligencja w radiu. Odpowiedzialność nie z AI Aktu, ale prawa karnego, cywilnego i prasowego

I faktycznie, AI Akt nie znajdzie w tym wypadku zastosowania, gdyż jeszcze w pełni on nie obowiązuje. Nie potrzeba tu jednak nowych przepisów – art. 38 prawa prasowego stanowi, że odpowiedzialność cywilną za naruszenia spowodowane publikacją ponosi nie tylko autor, ale też redaktor (lub osoba która spowodowała publikację) oraz wydawca. W tym wypadku brakuje tylko tego pierwszego (podobnie jak np. w przypadku publikacji anonimowych, gdy redakcja nie może ujawnić autorstwa). Ale dwaj pozostali wciąż odpowiadają. Podobnie jest w zakresie prawa karnego, np. zniesławienia (212 kk).

Pamiętajmy, że wina nie zawsze musi mieć postać umyślną. Także niedbalstwo czy lekkomyślność to formy winy nieumyślnej, za które ponosi się odpowiedzialność. Jeśli więc taka sztuczna inteligencja kogoś zniesławi, to odpowiedzialność karna grozi nadawcy oraz redaktorowi, który dopuścił by AI taką audycję „prowadziła” – tłumaczy adwokat Zbigniew Kruger, karnista.

Jak się bronić przed odpowiedzialnością za sztuczną inteligencję? Nie tylko Off Radio Kraków

Marek Świerczyński podkreśla, że nie można się zasłaniać faktem dużej złożoności narzędzi AI. Ich producenci zaś ponoszą odpowiedzialność za błędy i wady tych systemów, ale nie za każde ich użycie.

– Charakterystyczną cechą tych narzędzi jest to, że mają pewną dozę autonomii. Ale to nie zwalnia nas z obowiązku sprawdzenia, jak one funkcjonują i w jaki sposób generują treści. I w oparciu o to podjęcia decyzji, czy chcemy się nimi posłużyć. Należy zapoznać się z dokumentacją, regulaminami i instrukcjami działania danej AI, oraz poinformować użytkowników o jej stosowaniu – podsumowuje ekspert.

Czytaj więcej

Rząd szykuje ustawę o sztucznej inteligencji. Brak w niej bezpiecznego rozwijania AI

Dr hab Michał Zaremba z UW wskazuje zaś, że linia obrony mogłaby być w tym przypadku podobna, jak przy tradycyjnych treściach dziennikarskich. By wyłączyć odpowiedzialność, trzeba wykazać prawdziwość wypowiadanych słów, albo przynajmniej „szczególną staranność” w celu ich zweryfikowania.

– Pytanie jak, można to udowodnić w przypadku AI. Dużo też zależy od tego, o jakie naruszenie dokładnie chodzi. Czy sztuczna inteligencja naruszyła prywatność, cześć, prawo do wizerunku – wylicza ekspert.

Wisława Szymborska na antenie ws. literackiego Nobla 2024 

Już pierwszego dnia nadawania okazało się, że nie tylko prowadzący mogą być kreowani przez sztuczną inteligencję. Jedna z nich opisana jako 20 letnia Emilia Nowak, studentka dziennikarstwa, przeprowadziła rzekomy wywiad z... Wisławą Szymborską. Nieżyjącą od 12 lat poetkę pytano m.in. o tegoroczną Literacką Nagrodę Nobla dla Han Kang, czy ocenę twórczości Olgi Tokarczuk. I o ile wspomnienia autorki z tego, jak sama odbierała Nobla mogą być wypowiedzią archiwalną, to już odniesienia do dzieł opublikowanych po jej śmierci zapewne są kreacją sztucznej inteligencji.

Czytaj więcej

Sztuczna inteligencja. Przyszłość, która staje się teraźniejszością

Co na to prawo? W tym wypadku w grę wchodziłoby roszczenia rodziny na podstawie prawa do pamięci o osobie zmarłej.

– Jest to prawo na tyle szerokie, że obejmowało by i jej wizerunek (głos), prywatność czyi dobre imię. Ważne jest jednak, by odbiorca został ostrzeżony, że jest to swego rodzaju prowokacja czy eksperyment, aby nie powstawało ryzyko wprowadzenia w błąd. Wówczas takie działanie powinno być objęte ochroną - mówi Michał Zaremba.

Jeśli zaś generowane treści byłyby przypisywane osobom żyjącym, to one mogłyby wnosić ewentualne roszczenia z tytułu naruszenia dóbr osobistych.

– Tu uzasadnieniem mogłaby być np. satyra, co też powinno być jednak wprost zakomunikowane. Nie różniło by się to wiele od kabaretów wykorzystujących lalki udające polityków czy podkładaniem głosu w filmach w internecie – dodaje ekspert.

Od 8 rano 22 października kanał tematyczny OFF, prowadzony przez Radio Kraków, ma być niemal w całości tworzony przez narzędzia sztucznej inteligencji. Ma to być forma „eksperymentu medialno-badawczego” który ma sprawdzić, czy AI jest bardziej szansą, czy zagrożeniem dla mediów. System ten ma udawać trzy osoby. Żadna z tych osób jednak realnie nie istnieje. Pojawia się więc pytanie, kto poniesie odpowiedzialność, jeśli podczas audycji kogoś znieważą lub naruszą dobra osobiste. 

Pozostało 92% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Hybrydy
Skoda Kodiaq. Co musisz wiedzieć o technologii PHEV?
Cykl Partnerski
Brudna energia: kula u nogi
Czym jeździć
Skoda Kodiaq. Mikropodróże w maxisamochodzie
Sądy i trybunały
Sędziowie uciekają sprzed KRS. Zastraszenie przez polityków czy rozwaga?
Prawo w Polsce
Prof. Henryk Okarma: To myśliwi uratowali w Polsce bobry
Konsumenci
Sprawa Getin Banku na wokandzie Trybunału Sprawiedliwości UE