Sztuczna inteligencja - jakie rodzi wyzwania prawne

Korzystanie z tzw. „sztucznej inteligencji” generuje szereg problemów prawnych, które dotychczas nie zostały uregulowane. Trudności pojawiają się już na poziomie definicji.

Aktualizacja: 14.05.2020 16:16 Publikacja: 14.05.2020 15:37

Sztuczna inteligencja - jakie rodzi wyzwania prawne

Foto: Adobe Stock

Pojęcie sztucznej inteligencji („AI" – Artificial Intelligence) wymyślił w latach 50. XX w. Amerykański informatyk John McCarthy określając ją jako: „naukę i inżynierię tworzenia inteligentnych maszyn". Aktualnie AI jest definiowana jako pewna gałąź nauki lub też jako rodzaj maszyny. W tym pierwszym kontekście mówi się o nauce o maszynach wykonujących zadania, które może wykonywać człowiek, czy też gałęzi informatyki, która próbuje „skopiować" ludzkie zachowania do programów komputerowych. W drugim ujęciu AI to maszyna, czy też system informatyczny, który niejako „działa" tak jak człowiek – przetwarza informacje w oparciu o reguły ludzkiego rozumowania, uczy się i doskonali własne algorytmy. Najczęściej w tym ujęciu AI stanowi przedmiot analiz prawnych.

Czytaj także: Czy sztuczna inteligencja naprawdę jest inteligentna

Dyskusje wokół zagadnienia sztucznej inteligencji dotyczą zasadniczo kilku aspektów. Podnosi się przede wszystkim niewystarczalność aktualnych regulacji prawnych w odniesieniu do odpowiedzialności cywilno-prawnej oraz karnej, podmiotowości prawnej, praw autorskich, a także rozpatruje się działanie AI w kontekście ochrony danych osobowych.

Wydarzeniem, które z pewnością pobudziło dyskusję dotyczącą odpowiedzialności osób prawnych był wypadek, jaki wydarzył się w 2018 r. w Stanach Zjednoczonych spowodowany przez pojazd autonomiczny. Samochód potrącił pieszą, która zmarła w wyniku doznanych obrażeń. Nie była to jedyna „sprawa karna" AI. W 2015 r. szwajcarska grupa artystyczna !Mediengruppe Bitnik zaprojektowała robota o nazwie Random Darknet Shopper, który miał za zadanie dokonywanie zakupów w tzw. darknecie. Robotowi udało się zakupić m.in. parę podrobionych jeansów Diesel, porobioną torebkę Louis Vuitton i tabletki ecstasy. Po tych zdarzeniach został „złapany" i skonfiskowany przez szwajcarską policję.

W związku z powyższym powstaje przede wszystkim pytanie, komu przypisać w takim przypadku odpowiedzialność karną, która jest odpowiedzialnością osobistą? Co więcej, art. 1 § 3 Kodeksu karnego stanowi, że nie popełnia przestępstwa sprawca czynu zabronionego, jeżeli nie można mu przypisać winy w czasie czynu. W związku z tym odpowiedzialność karną, co do zasady, może ponosić wyłącznie osoba fizyczna. W dyskusjach dotyczących omawianego zagadnienia powstaje problem, czy należałoby wobec tego zmodyfikować istniejące teorie winy, czy też wprowadzić zupełnie nowe przesłanki odpowiedzialności karnej? Podnosi się także, że nawet gdyby udało się stworzyć regulacje dotyczące przypisania tej odpowiedzialności AI, nie sposób wyobrazić sobie karania robotów. Kara pełni bowiem szereg funkcji, jak choćby uczynienie zadość sprawiedliwości, naprawienie szkody wyrządzonej przestępstwem, tak zwana prewencja szczególna, czyli zapobieganie powrotowi do przestępstwa oraz prewencja ogólna – generalnie rzecz biorąc zapobieganie przestępczości. Żaden z tych celów nie będzie spełniony poprzez ukaranie sztucznej inteligencji.

Równie wiele kłopotów przysparza kwestia odpowiedzialności cywilnej. W nauce wskazuje się w tym kontekście na możliwość wykorzystania regulacji dotyczących odpowiedzialności za produkt niebezpieczny. Jest to odpowiedzialność producenta ponoszona na zasadzie ryzyka, zatem do jej zaistnienia nie jest wymagane wykazanie winy. Ta regulacja wydaje się zabezpieczać interesy użytkowników sztucznej inteligencji. Jednakże po bliższej analizie okazuje się, że nie jest ona dostosowana do „produktu", jakim jest AI. Rodzi się między innymi pytanie, czy w ogóle sztuczna inteligencja spełnia kryteria definicji produktu, którym są, w myśl art. 4491 § 2 kodeksu cywilnego, rzeczy ruchome, energia oraz zwierzęta. Ponadto w kodeksie cywilnym przewidziano wyłączenie odpowiedzialności producenta np. wtedy, gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu (art. 4493 § 2 kodeksu cywilnego). Tymczasem może się zdarzyć, że AI dojdzie do błędnych wniosków, ponieważ inne nie mogły powstać na podstawie dostępnych jej danych. W takiej sytuacji trudno przyjmować, że system działał wadliwie, choć niewątpliwie może on spowodować szkodę. Jednocześnie przy wykorzystaniu omawianej regulacji doszłoby do wyłączenia odpowiedzialności producenta.

W kontekście odpowiedzialności cywilnoprawnej AI pojawiają się w doktrynie prawa pomysły wprowadzenia nowej formy podmiotowości – osoby elektronicznej. Podobnie jak w przypadku osób prawych, obowiązki osób elektronicznych realizowane byłyby za pomocą właściwych podmiotów. Innymi koncepcjami są odpowiedzialność tzw. „faktycznego dysponenta" AI, a także wniesienie systemu sztucznej inteligencji aportem do spółki celowej odpowiedzialnej następnie za działanie tego sytemu.

Kolejnym dyskutowanym w nauce prawa zagadnieniem związanym ze sztuczną inteligencją są prawa autorskie do wytworzonych przez systemy AI utworów. Pojawia się tutaj pytanie, czy takie „dzieła" powinny być chronione tak jak utwory w rozumieniu ustawy o prawie autorskim i prawach pokrewnych, czy też jako przedmiot praw pokrewnych. Prawa pokrewne niejako „bazują" na gotowych utworach, są to np. prawa wykonawcy do artystycznego wykonania utworu, prawa do pierwszych wydań utworów, czy też pierwszych utrwaleń dźwięku – fonogramów. Prawa te zabezpieczają interesy osób, dzięki którym utwory są rozpowszechniane. Tymczasem prawa autorskie, mówiąc najogólniej, chronią sposób komunikacji twórcy z otoczeniem, a także więź emocjonalną twórcy z dziełem. Z tego względu bardziej uzasadniona wydaje się ochrona wynikająca z praw pokrewnych do wytworów sztucznej inteligencji.

Oprócz powyższego problemu pojawia się także pytanie komu powinny przysługiwać prawa do dzieł sztucznej inteligencji. Wskazuje się tutaj często autora programu, który został użyty to wytworzenia określonego dzieła. Z drugiej strony program komputerowy jest sam w sobie chroniony prawem autorskim, toteż wysiłek twórcy programu został już dostatecznie nagrodzony w postaci przyznania tej ochrony. Analogiczne problemy powstają na gruncie prawa własności przemysłowej w związku z wytwarzaniem wynalazków przez systemy sztucznej inteligencji.

Nie można także nie wspomnieć o zagadnieniach związanych z ochroną danych osobowych. Dyskusja dotycząca tej dziedziny skupia się wokół konieczności zagwarantowania, że żaden system sztucznej inteligencji nie będzie mógł ujawnić poufnych danych osobowych. Wskazuje się także na wpływ na rozwój AI Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z 27 kwietnia 2016 r., tzw. „RODO". Zdaniem wielu specjalistów RODO może blokować rozwój sztucznej inteligencji. Artykuł 22 RODO dopuszcza zautomatyzowane podejmowanie decyzji w indywidualnych przypadkach, w tym tzw. profilowanie, m.in. gdy decyzja tak podjęta jest niezbędna do zawarcia lub wykonania umowy między osobą, której dane dotyczą a administratorem, a także opiera się na wyraźnej zgodzie osoby, której dotyczą dane. Jednakże niezależnie od tego administrator jest zobowiązany do wdrożenia podstawowych środków ochrony praw osoby, której dotyczą dane, zapewniając jej co najmniej prawo do uzyskania interwencji ludzkiej ze strony administratora, do wyrażenia własnego stanowiska i do zakwestionowania decyzji. Tym samym okazać się może, że „dysponent" sztucznej inteligencji nie będzie mógł korzystać z owoców jej pracy.

Powyższy przegląd problemów prawnych związanych z AI pokazuje, że aktualne rozwiązania normatywne nie przystają do rozwoju techniki. Pozytywnie należy jednak ocenić fakt, że coraz więcej ekspertów z różnych dziedzin prawa podejmuje w ostatnich latach dyskusję na ten temat. Rodzi to nadzieję na wypracowanie przez specjalistów rozwiązań prawych, które w odpowiednim momencie będą mogły zostać wprowadzone w życie.

-  Alicja Rytel Adwokat, Patpol Legal

Nieruchomości
Sąd Najwyższy wydał ważny wyrok dla tysięcy właścicieli gruntów ze słupami
Konsumenci
To koniec "ekogroszku". Prawnicy dla Ziemi: przełom w walce z ekościemą
Edukacja i wychowanie
Nie zdał egzaminu, wygrał w sądzie. Wykładowcy muszą przestrzegać zasad
Sądy i trybunały
Pomysł Szymona Hołowni nie uratuje wyborów prezydenckich
Edukacja i wychowanie
Uczelnia ojca Rydzyka przegrywa w sądzie. Poszło o "zaświadczenie od proboszcza"
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10