Kto odpowie za szkody wyrządzone przez sztuczną inteligencję?

Systemy oparte na sztucznej inteligencji (dalej: „SI”) coraz częściej stają się częścią różnych sfer naszego życia. Jest oczywiste, że powinny być bezpieczne i godne zaufania. Zdarzają się jednak sytuacje, gdy systemy te zawodzą, a to może skutkować wyrządzeniem szkody. W takich przypadkach ustalenie osoby odpowiedzialnej za szkodę może okazać się trudne albo wręcz niemożliwe, np. w sytuacjach ataków hackerskich. Kwestię określenia takiej osoby znacząco utrudnia również autonomiczny charakter funkcjonowania systemów SI.

Publikacja: 19.04.2021 14:08

Kto odpowie za szkody wyrządzone przez sztuczną inteligencję?

Foto: Adobe Stock

Z uwagi na specyfikę systemów SI dostrzeżono potrzebę prawnego uregulowania różnych aspektów jej funkcjonowania. Na początku 2020 r. Komisja Europejska przedstawiła Białą Księgę w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania, w której odniosła się m.in. do problemu odpowiedzialności za szkody wyrządzone przez SI. 20 października 2020 r. Parlament Europejski przyjął Rezolucję z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)) (dalej jako: „Rezolucja"), w której potwierdzono potrzebę przyjęcia przekrojowych ram prawnych w tym zakresie.

Specyfika systemów SI

Pojęcie systemów sztucznej inteligencji jest bardzo szerokie i obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe. Jak wynika z Rezolucji SI powinno łączyć się z terminem „zautomatyzowanego podejmowania decyzji", czyli przeniesieniem przez użytkownika w drodze korzystania z oprogramowania lub usługi podjęcia decyzji na inny podmiot.

Mimo korzyści płynących z wykorzystywania systemów SI wiążą się z nimi również poważne obawy, dotyczące w szczególności wykorzystywania ich w celu wyrządzenia poważnych szkód, w tym narażenia na niebezpieczeństwo zdrowia i życia ludzkiego, jak również bezpieczeństwa finansowego lub politycznego. Systemy SI mogłyby również posłużyć do śledzenia obywateli wbrew ich woli czy też podejmowania stronniczych decyzji dotyczących ubezpieczeń zdrowotnych oraz kredytów.

Potrzeba nowych regulacji

Od ponad 30 lat na terenie UE obowiązuje Dyrektywa Rady nr 85/374/EWG w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe, implementowana w polskim Kodeksie cywilnym. Przewiduje ona odpowiedzialność określonych podmiotów, przede wszystkim producenta, na zasadzie ryzyka za szkodę wyrządzoną przez produkt niebezpieczny.

Parlament Europejski zauważył, że z uwagi na nowe wyzwania, jakie w zakresie bezpieczeństwa i ochrony konsumentów powoduje korzystanie z systemów SI, dotychczasowe środki przewidziane w Dyrektywie 85/374 przestały być wystarczające. Szczególne trudności wiążą się z ustaleniem osoby odpowiedzialnej za działania systemów SI czy też odpowiedzialnością za cyberbezpieczeństwo produktu. W konsekwencji osoby poszkodowane nie mają możliwości skutecznego dochodzenia odszkodowania za szkodę wyrządzoną działaniem takiego systemu. Autonomia systemów SI utrudnia powiązanie ich konkretnych działań z konkretnymi decyzjami człowieka podjętymi podczas ich projektowania lub korzystania z nich. Operator systemu SI może przykładowo argumentować, że działanie systemu było poza jego kontrolą, a zatem, że nie ponosi on odpowiedzialności za wyrządzoną tym działaniem szkodę.

Motywem przyjęcia nowych regulacji jest m.in. zagwarantowanie, że potencjalne szkody spowodowane przez systemy wykorzystujące SI będą objęte odpowiednim ubezpieczeniem, a także, że każda osoba, która poniosła szkodę w wyniku działania systemów SI, może korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach szkód wyrządzonych bez udziału systemów SI.

Zdaniem Parlamentu Europejskiego dedykowane systemom SI regulacje powinny przyjąć formę rozporządzenia. Rozporządzenie stosuje się w państwach członkowskich bezpośrednio. Zatem jeśli powyższa regulacja przyjmie formę rozporządzenia, będzie obowiązywać na terenie wszystkich państw członkowskich bez konieczności jej wcześniejszej implementacji do prawa krajowego. Pozwoli to zapewnić jej jednolite stosowanie na terenie całej UE.

Dodatkowo w załączniku do Rezolucji Parlament Europejski przedstawił propozycję brzmienia Rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji (dalej: „Projekt Rozporządzenia").

Odpowiedzialność operatorów

Parlament zauważył, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego będzie operator systemu. Zgodnie z Rezolucją pojęcie operatora należy rozumieć szeroko jako obejmujące zarówno operatora front-end, jak i back – end. Operatorem front-end będzie osoba fizyczna lub prawna, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania. Z kolei operator back–end to osoba fizyczna lub prawna, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem również sprawuje pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI. W Rezolucji podkreślono, że przypadkach, w których występuje więcej niż jeden operator, wszyscy operatorzy powinni ponosić odpowiedzialność solidarną, mając jednocześnie prawo do późniejszych roszczeń regresowych między sobą.

Parlament stanął na stanowisku, że operatorzy powinni ponosić odpowiedzialność za wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny, czy wirtualny. Odpowiedzialność operatora (zarówno front-end, jak i back-end) można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu. Sprawowanie kontroli nad systemami SI należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane.

Rodzaje odpowiedzialności za systemy SI

Jednym z kluczowych założeń propozycji PE jest wprowadzenie dwóch rodzajów odpowiedzialności w odniesieniu do szkód wyrządzonych przez systemy SI, tj. odpowiedzialności na zasadzie ryzyka dla systemów sztucznej inteligencji obarczonych wysokim ryzykiem oraz odpowiedzialności na zasadzie winy za inne systemy sztucznej inteligencji. Surowsze zasady odpowiedzialności dla systemów SI obarczonych wysokim ryzykiem Parlament uzasadnia faktem, że są one potencjalnie znacznie bardziej niebezpieczne dla użytkownika czy społeczeństwa, przy czym wynikające z nich zagrożenie występuje w sposób losowy, trudny lub niemożliwy do przewidzenia.

PE proponuje, aby do rozporządzenia załączyć wykaz systemów SI obarczonych wysokim ryzykiem oraz wszystkich istotnych branż, w których systemy te są wykorzystywane. Powyższy podział jest o tyle istotny, że do tych systemów znajdzie zastosowanie szczególny rodzaj odpowiedzialności, tj. odpowiedzialność na zasadzie ryzyka. Oznacza to, że w razie powstania szkody osoba poszkodowana nie będzie musiała udowadniać winy operatora systemu, który wyrządził jej szkodę. PE proponuje przy tym, aby w stosunku do systemów SI wysokiego ryzyka obowiązywały dodatkowe, szczególne rozwiązania dotyczące m.in. konieczności ubezpieczenia odpowiedzialności cywilnej operatora front-end związanej z działaniem takiego systemu.

Dodatkowo w przypadku niektórych roszczeń, m.in. dotyczących śmierci, uszczerbku na zdrowiu lub kalectwa wyrządzonych przez systemy SI wysokiego ryzyka, PE proponuje wydłużenie terminu przedawnienia roszczeń z tytułu odpowiedzialności cywilnej do 30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem. Obecnie termin przedawnienia roszczeń z tytułu odpowiedzialności za szkodę wyrządzoną przez produkt niebezpieczny wynosi 10 lat od wprowadzenia produktu do obrotu. PE zaproponował również maksymalne kwoty odszkodowania za określone szkody wyrządzone przez systemy SI wysokiego ryzyka. Najwyższa przewidziana kwota wynosi 2 miliony euro.

Więcej szczegółów dotyczących odpowiedzialności cywilnej za SI poznamy już wkrótce, bowiem 21 kwietnia 2021 r. Komisja Europejska ma przedstawić dalsze kroki w tym zakresie planowanych regulacji dotyczących systemów sztucznej inteligencji.

Ewa Rutkowska, adwokat, wspólnik w KRK Kieszkowska Rutkowska Kolasiński

Julia Łokaj, aplikantka adwokacka, KRK Kieszkowska Rutkowska Kolasiński

Katarzyna Anysz, prawnik, KRK Kieszkowska Rutkowska Kolasiński

Z uwagi na specyfikę systemów SI dostrzeżono potrzebę prawnego uregulowania różnych aspektów jej funkcjonowania. Na początku 2020 r. Komisja Europejska przedstawiła Białą Księgę w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania, w której odniosła się m.in. do problemu odpowiedzialności za szkody wyrządzone przez SI. 20 października 2020 r. Parlament Europejski przyjął Rezolucję z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)) (dalej jako: „Rezolucja"), w której potwierdzono potrzebę przyjęcia przekrojowych ram prawnych w tym zakresie.

Pozostało 92% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Marek Kobylański: Dziś cisza wyborcza jest fikcją
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Opinie Prawne
Tomasz Pietryga: Reksio z sekcji tajnej. W sprawie Pegasusa sędziowie nie są ofiarami służb
Opinie Prawne
Robert Gwiazdowski: Ideowość obrońców konstytucji
Opinie Prawne
Jacek Czaja: Lustracja zwycięzcy konkursu na dyrektora KSSiP? Nieuzasadnione obawy
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Opinie Prawne
Jakubowski, Gadecki: Archeolodzy kontra poszukiwacze skarbów. Kolejne starcie