Tomasz Pietryga: Wskrzeszenie noblistki w krakowskim radiu szokuje, ale może być jeszcze gorzej

Wejście AI w szeroką przestrzeń mediów publicznych, gdzie znakiem rozpoznawczym zawsze powinna być wiarygodność, jest precedensem, na który nie jesteśmy przygotowani.

Publikacja: 24.10.2024 04:39

Ekperyment krakowskiego radia z Wisławą Szymborską w roli głównej zaszokował wielu słuchaczy

Ekperyment krakowskiego radia z Wisławą Szymborską w roli głównej zaszokował wielu słuchaczy

Foto: Michał Rusinek

Ostatnia historia z publicznego OFF Radia Kraków, gdzie sztuczna inteligencja przeistoczyła się w redaktora prowadzącego wywiad z nieżyjącą noblistką Wisławą Szymborską, której głos i wypowiedzi zostały również wygenerowane przez algorytm, wywołała oburzenie. Mówiono o nieetycznym wykorzystywaniu nowych technologii oraz granicach odpowiedzialności prawnej w przypadku tego rodzaju eksperymentalnych audycji. Bo co by było gdyby na przykład AI „wyrwała się” spod kontroli, naruszając czyjeś dobra osobiste lub wizerunek? Odpowiedź nie jest prosta.

Kto odpowiada za AI? Ten, kto wciska guzik?

W polskim prawie nie ma specjalnych regulacji poświęconych aktywności AI w przestrzeni publicznej ani też ukształtowanego orzecznictwa w takich sprawach. Oczywiście dochodzenie swoich praw na podstawie ogólnych przepisów kodeksowych czy prawa prasowego, które definiuje odpowiedzialność np. wydawcy, jest możliwe. Jednak w rzeczywistości, w konkretnym przypadku, może być to karkołomne. Zwłaszcza gdy trudno jest określić ramy podmiotowości maszyny. Czy odpowiedzialność ponosi wyłącznie ten, kto przyciska transmisyjny guzik, pozostawiając algorytmowi kreatywne kształtowanie treści? Czy też kreatywność i autonomia wpisana w AI może być również przesłanką zwalniającą od odpowiedzialności, jeżeli coś pójdzie nie tak, nie z winy osoby, która ów przycisk wcisnęła? Myślę, że odpowiedzi na te pytania są dopiero przed nami, kiedy to wraz z upowszechnieniem AI i coraz śmielszym jej wykorzystaniem będą pojawiać się ofiary.

Czytaj więcej

Krzysztof A. Kowalczyk: Kto wpuścił syntetycznych talibów do studia?

Obecnie w Polsce przygotowywany jest projekt ustawy o sztucznej inteligencji, który ramowo określa jej działanie w przestrzeni publicznej, gospodarce i nauce. Jednak nawet wejście tego aktu prawnego w życie nie rozwiąże powyższych dylematów. Trudno bowiem skroić rozwiązania prawne do czegoś, co jest nieokiełznane, nieprzewidywalne i nieskończone. Nam, ludziom po prostu brakuje wyobraźni, jakie są granice wykorzystywania tej technologii i ile jest w niej faktycznej niezależności. Inaczej mówiąc, czy możemy ją kontrolować, aby jej aktywność odpowiadała wyłącznie naszym intencjom, czy też jej autonomia może wykroczyć poza nasze intencje? Tego nie da się tak łatwo zapisać w regulacji prawnej.

Nie tylko Wisława Szymborska

To, co się stało w ostatnim czasie w związku z pojawieniem się ogólnodostępnej generatywnej sztucznej inteligencji (m.in. ChatGPT), to rewolucja przez duże R, a my, podobnie jak cały świat, wchodzimy w nieznane, eksperymentując i poruszając się po omacku. Kreowanie deep fake’ów, w których wykreowane postaci udają znanych polityków, aktorów czy celebrytów, stawiając ich w złym świetle i przypisując im nigdy niewypowiedziane słowa, od wielu miesięcy stanowi codzienność w mediach społecznościowych. W takich przypadkach trudno jednoznacznie ocenić autorstwo czy intencje – czy to żart, mem, a może opłacony czarny PR lub dezinformacja obcych służb?

Ale w minionych dniach wydarzyło się coś więcej. Wejście AI do mediów publicznych, gdzie znakiem rozpoznawczym zawsze powinna być wiarygodność, jest precedensem, na który – jak się okazuje – nie jesteśmy kompletnie przygotowani. Teraz jak na dłoni widać, że postęp technologiczny o kilka długości wyprzedził rozwiązania prawne. Warto się do tego przygotować wszechstronnie, bo istotą nauki i technologii jest służba dla dobra ludzkości, zarówno w tych dużych, jak i mniejszych sprawach. I to powinno być zawsze linią graniczną wyznaczaną przez prawo oraz etykę – nową, ale opartą na starej, niezmiennej aksjologii.

Ostatnia historia z publicznego OFF Radia Kraków, gdzie sztuczna inteligencja przeistoczyła się w redaktora prowadzącego wywiad z nieżyjącą noblistką Wisławą Szymborską, której głos i wypowiedzi zostały również wygenerowane przez algorytm, wywołała oburzenie. Mówiono o nieetycznym wykorzystywaniu nowych technologii oraz granicach odpowiedzialności prawnej w przypadku tego rodzaju eksperymentalnych audycji. Bo co by było gdyby na przykład AI „wyrwała się” spod kontroli, naruszając czyjeś dobra osobiste lub wizerunek? Odpowiedź nie jest prosta.

Pozostało 86% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Karolina Szulc-Nagłowska: Szybki rozwód. Jak go uzyskać?
Cykl Partnerski
Miasta w dobie zmiany klimatu
Opinie Prawne
Ewa Szadkowska: Bliskość prawnie uregulowana
Opinie Prawne
Michał Szułdrzyński: Związki partnerskie? Triumf indywidualizmu nad przyszłościowym myśleniem o wspólnocie
Opinie Prawne
Michał Bieniak: Prorok jaki, czy co?
Opinie Prawne
Drapała: O potrzebie ochrony firm przy budowie elektrowni atomowej