Tomasz Pietryga: Wskrzeszenie noblistki w krakowskim radiu szokuje, ale może być jeszcze gorzej

Wejście AI w szeroką przestrzeń mediów publicznych, gdzie znakiem rozpoznawczym zawsze powinna być wiarygodność, jest precedensem, na który nie jesteśmy przygotowani.

Publikacja: 24.10.2024 04:39

Ekperyment krakowskiego radia z Wisławą Szymborską w roli głównej zaszokował wielu słuchaczy

Ekperyment krakowskiego radia z Wisławą Szymborską w roli głównej zaszokował wielu słuchaczy

Foto: Michał Rusinek

Ostatnia historia z publicznego OFF Radia Kraków, gdzie sztuczna inteligencja przeistoczyła się w redaktora prowadzącego wywiad z nieżyjącą noblistką Wisławą Szymborską, której głos i wypowiedzi zostały również wygenerowane przez algorytm, wywołała oburzenie. Mówiono o nieetycznym wykorzystywaniu nowych technologii oraz granicach odpowiedzialności prawnej w przypadku tego rodzaju eksperymentalnych audycji. Bo co by było gdyby na przykład AI „wyrwała się” spod kontroli, naruszając czyjeś dobra osobiste lub wizerunek? Odpowiedź nie jest prosta.

Czytaj więcej

Jan Skoumal: AI zamiast ekspertów i sztuczna Szymborska. Nowa, wspaniała oferta dla młodych?

Kto odpowiada za AI? Ten, kto wciska guzik?

W polskim prawie nie ma specjalnych regulacji poświęconych aktywności AI w przestrzeni publicznej ani też ukształtowanego orzecznictwa w takich sprawach. Oczywiście dochodzenie swoich praw na podstawie ogólnych przepisów kodeksowych czy prawa prasowego, które definiuje odpowiedzialność np. wydawcy, jest możliwe. Jednak w rzeczywistości, w konkretnym przypadku, może być to karkołomne. Zwłaszcza gdy trudno jest określić ramy podmiotowości maszyny. Czy odpowiedzialność ponosi wyłącznie ten, kto przyciska transmisyjny guzik, pozostawiając algorytmowi kreatywne kształtowanie treści? Czy też kreatywność i autonomia wpisana w AI może być również przesłanką zwalniającą od odpowiedzialności, jeżeli coś pójdzie nie tak, nie z winy osoby, która ów przycisk wcisnęła? Myślę, że odpowiedzi na te pytania są dopiero przed nami, kiedy to wraz z upowszechnieniem AI i coraz śmielszym jej wykorzystaniem będą pojawiać się ofiary.

Czytaj więcej

Krzysztof A. Kowalczyk: Kto wpuścił syntetycznych talibów do studia?

Obecnie w Polsce przygotowywany jest projekt ustawy o sztucznej inteligencji, który ramowo określa jej działanie w przestrzeni publicznej, gospodarce i nauce. Jednak nawet wejście tego aktu prawnego w życie nie rozwiąże powyższych dylematów. Trudno bowiem skroić rozwiązania prawne do czegoś, co jest nieokiełznane, nieprzewidywalne i nieskończone. Nam, ludziom po prostu brakuje wyobraźni, jakie są granice wykorzystywania tej technologii i ile jest w niej faktycznej niezależności. Inaczej mówiąc, czy możemy ją kontrolować, aby jej aktywność odpowiadała wyłącznie naszym intencjom, czy też jej autonomia może wykroczyć poza nasze intencje? Tego nie da się tak łatwo zapisać w regulacji prawnej.

Nie tylko Wisława Szymborska

To, co się stało w ostatnim czasie w związku z pojawieniem się ogólnodostępnej generatywnej sztucznej inteligencji (m.in. ChatGPT), to rewolucja przez duże R, a my, podobnie jak cały świat, wchodzimy w nieznane, eksperymentując i poruszając się po omacku. Kreowanie deep fake’ów, w których wykreowane postaci udają znanych polityków, aktorów czy celebrytów, stawiając ich w złym świetle i przypisując im nigdy niewypowiedziane słowa, od wielu miesięcy stanowi codzienność w mediach społecznościowych. W takich przypadkach trudno jednoznacznie ocenić autorstwo czy intencje – czy to żart, mem, a może opłacony czarny PR lub dezinformacja obcych służb?

Ale w minionych dniach wydarzyło się coś więcej. Wejście AI do mediów publicznych, gdzie znakiem rozpoznawczym zawsze powinna być wiarygodność, jest precedensem, na który – jak się okazuje – nie jesteśmy kompletnie przygotowani. Teraz jak na dłoni widać, że postęp technologiczny o kilka długości wyprzedził rozwiązania prawne. Warto się do tego przygotować wszechstronnie, bo istotą nauki i technologii jest służba dla dobra ludzkości, zarówno w tych dużych, jak i mniejszych sprawach. I to powinno być zawsze linią graniczną wyznaczaną przez prawo oraz etykę – nową, ale opartą na starej, niezmiennej aksjologii.

Czytaj więcej

Audycje prowadzone przez sztuczną inteligencję. Kto odpowiada za słowa AI?

Ostatnia historia z publicznego OFF Radia Kraków, gdzie sztuczna inteligencja przeistoczyła się w redaktora prowadzącego wywiad z nieżyjącą noblistką Wisławą Szymborską, której głos i wypowiedzi zostały również wygenerowane przez algorytm, wywołała oburzenie. Mówiono o nieetycznym wykorzystywaniu nowych technologii oraz granicach odpowiedzialności prawnej w przypadku tego rodzaju eksperymentalnych audycji. Bo co by było gdyby na przykład AI „wyrwała się” spod kontroli, naruszając czyjeś dobra osobiste lub wizerunek? Odpowiedź nie jest prosta.

Pozostało 88% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Tomasz Siemiątkowski: Szkodliwa nadregulacja w sprawie cyberbezpieczeństwa
Opinie Prawne
Tomasz Pietryga: Czy wolne w Wigilię ma sens? Biznes wcale nie musi na tym stracić
Opinie Prawne
Robert Gwiazdowski: Awantura o składki. Dlaczego Janusz zapłaci, a Johanes już nie?
Opinie Prawne
Łukasz Guza: Trzy wnioski po rządowych zmianach składki zdrowotnej
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Opinie Prawne
Tomasz Pietryga: Rząd wypuszcza więźniów. Czy to rozsądne?