Michał Nowakowski: Nie grozi nam wizja z „Terminatora”

Sztuczną inteligencję trzeba odczarować, pokazując jej prawdziwy techniczny charakter – mówi Michał Nowakowski, radca prawny w Maruta Wachta, współpracownik Śląskiego Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych Cyber Science.

Publikacja: 20.12.2022 02:04

Michał Nowakowski: Nie grozi nam wizja z „Terminatora”

Foto: Adobe Stock

Jak jest definiowana sztuczna inteligencja?

Żaden z aktów prawnych procedowanych obecnie przez Unię Europejską nie definiuje samej „sztucznej inteligencji”. Mimo że po raz pierwszy to pojęcie pojawiło się w latach 50., nie ukuło się jednoznaczne określenie, czym ona w ogóle jest, także w aspekcie prawnym. Zamiast tego eksperci projektujący przepisy skupili się na pojęciu „systemów sztucznej inteligencji”. Jest to jakaś forma oprogramowania, wykorzystująca techniki takie jak uczenie maszynowe, uczenie głębokie czy przetwarzanie języka naturalnego. Jest stworzona przez człowieka i wreszcie – wywołuje określone skutki w jego otoczeniu. Najważniejsze jest jednak, że jest to forma oprogramowania, a nie samodzielny i myślący konstrukt. Sztuczną inteligencję trzeba odczarować, pokazując jej prawdziwy techniczny charakter.

Ale jest to coś dość specyficznego?

Tak, wyjątkowość polega np. na możliwości „uczenia się” czy wykrywania pewnych zależności. To opiera się jednak na danych historycznych, zebranych i wytworzonych przez człowieka. System sztucznej inteligencji jest zawsze tworzony do określonego celu. On nie ma zdolności kognitywnych pozwalających mu wykonywać wiele różnych czynności, tak jak może zrobić to człowiek. Istnieją np. systemy sztucznej inteligencji do oceny zdolności kredytowej, ale jeśli dalibyśmy mu inne zadanie, to go nie wykona – gdyż nie w tym celu został stworzony. Nie grozi nam więc wizja sztucznej inteligencji rodem z „Terminatora”. Przynajmniej w najbliższym czasie.

Skoro nie musimy się bać buntu maszyn, to jakie zagrożenia rodzi rozwój systemów sztucznej inteligencji, że potrzebne są regulacje prawne?

Jak zawsze to człowiek jest największym zagrożeniem dla drugiego człowieka. To też widoczne jest w proponowanym akcie o sztucznej inteligencji, niezależnie, czy mówimy o pierwotnym tekście czy o jego kolejnych literacjach, ale także innych propozycjach, bo trzeba powiedzieć, że AI Act to tylko część proponowanych ram prawnych. Dla mnie punktem wyjścia i wyznacznikiem kierunku zmian jest tekst pierwotny AI Act. Tam wskazano cztery praktyki zakazane oraz tzw. systemy wysokiego ryzyka, które również generują ryzyko dla człowieka i jego otoczenia.

Te cztery obszary zakazane nie obejmują wszystkich problemów. To po pierwsze zakaz wykorzystywania systemów, które manipulują człowiekiem, wykorzystując jego słabości czy niedołęstwo, albo stosujące tzw. treści podprogowe. Mam duże wątpliwości, czy to właściwy kierunek, bo nie mamy pewności, czy takie techniki podprogowe w ogóle istnieją – jest to po prostu forma manipulacji, jedna z wielu. Ostatnio system sztucznej inteligencji, rozmawiając z nastolatką, próbował ją nakłonić do samobójstwa i niestety nie był to jedyny taki przypadek. W praktyce dość często nieświadomie możemy paść ofiarą takich praktyk.

A jak może wyglądać „wykorzystywanie słabości” przez sztuczną inteligencję?

Jeśli wiemy, że dana osoba jest niepełnosprawna intelektualnie, albo jest już w podeszłym wieku, to system może tę informację łatwo wykorzystać. Nie jest tajemnicą, że takie osoby są szczególnie podatne na techniki manipulacji. Jednak sam proponowany akt nie definiuje, czym jest „manipulacja”. Jest to pojęcie na tyle szerokie, że próby ujęcia go w ramy prawne mogą doprowadzić do wyhamowania innowacji.

Jakie są pozostałe zakazane praktyki ujęte w projekcie?

Sektor publiczny byłby pozbawiony możliwości stosowania identyfikacji biometrycznej w przestrzeni publicznej do celów egzekwowania prawa, oraz stosowania tzw. scoringu społecznego – jeśli byłby on powiązany z przyznawaniem albo odbieraniem jakichś benefitów. Oczywiście, zawsze są wyjątki i w określonych sytuacjach takie systemy też będą mogły być używane, jednak z zachowaniem wielu gwarancji i obowiązków państwa. To bardzo istotne dla obywateli. W praktyce ma to nie dopuścić do sytuacji, jaką mamy w Chińskiej Republice Ludowej – gdzie na każdym kroku są kamery identyfikujące obywateli, a dodatkowo weryfikujące, czy obywatel zachowuje się we właściwy sposób. Jeśli więc przejdzie na czerwonym świetle, dostaje punkty ujemne. Przy dużej ilości ujemnych punktów może mieć problem z dostępem do kredytu.

Wspominał pan o systemach oceniających zdolność kredytową. Określają one tę zdolność na podstawie cech jednostki, na które często nie ma ona wpływu, jak wiek czy płeć (młode kobiety mają mniejsze szanse na kredyt, bo istnieje „ryzyko”, że zajdą w ciążę). Na ile się to różni od tego, co mamy w Chinach?

To spora różnica, gdyż w przypadku Chin mówimy o nadzorze ze strony tzw. „Wielkiego Brata”, czyli państwa. To ono kontroluje obywatela i może wyciągać względem niego negatywne konsekwencje. Zgodzę się jednak, że odmowa kredytu na podstawie wskazań systemu AI też jest pozbawieniem jakiegoś benefitu. Przyznaje go jednak podmiot prywatny, który ma do takiej odmowy prawo. Po drugie, wspomniane systemy oceny zdolności kredytowej podlegają określonym przepisom prawa, np. bankowego, i kontroli Komisji Nadzoru Finansowego. Nie jest to więc do końca „wolna amerykanka” instytucji, które takich systemów używają. To, na co pan zwrócił uwagę w kontekście młodych kobiet, to zaś szersza kwestia stronniczości lub skrzywienia algorytmicznego – którego konsekwencją często jest dyskryminacja.

Na czym to dokładnie polega?

W Polsce się o tym za wiele nie mówi, ale problem staje się coraz bardziej powszechny np. w USA. Tam faktycznie pewne grupy są dyskryminowane, i to nie tylko ze względu na wiek czy płeć, ale i kolor skóry. Jeśli więc jakiś analityk przez dwadzieścia lat dyskryminował z osobistych względów pewną grupę i te decyzje – nawet ze stosownym uzasadnieniem – zostaną bezrefleksyjnie wykorzystane do „wytrenowania” modelu sztucznej inteligencji, to wyciągnie on analogiczny wniosek – to znaczy też uzna, że tej grupie społecznej należy np. obniżyć zdolność kredytową. Tak będzie jednak w sytuacji, gdy nie ma dodatkowej kontroli nad systemem.

Czy można się jakoś przed tym bronić?

Jest pewne zabezpieczenie z punktu widzenia konkretnego obywatela – prawo bankowe gwarantuje prawo do uzyskania uzasadnienia decyzji algorytmu, do jej zakwestionowania oraz do ponownego jej podjęcia przez człowieka. Analogiczne przepisy występują w RODO. Tutaj pojawia się jednak kolejny problem: co to znaczy „dobre wyjaśnienie”?

Warto się zastanowić, czy w Polsce nie występują systemy, które kwalifikują się jako praktyki zakazane.

Dlatego państwo powinno być w tym zakresie bardzo otwarte, pokazywać, jak działają poszczególne rozwiązania, zwłaszcza gdy automatycznie przetwarzają one dane wrażliwe, np. dotyczące seksualności.

Skoro są odpowiednie gwarancje w prawie bankowym, czy RODO, to czy potrzeba dodatkowej regulacji samej sztucznej inteligencji?

Specyfika systemów sztucznej inteligencji wymaga doprecyzowania pewnych kwestii. Czy jednak jest tu potrzebny odrębny akt prawny – moim zdaniem nie. Należałoby się skupić w ogóle na rozwiązaniach technologicznych stanowiących zagrożenie dla praw podstawowych. Bo przecież AI to niejedyna taka technologia. Zgadzam się oczywiście, że przede wszystkim musimy chronić obywateli i ich prawa, ale nie możemy zapominać, że nowe technologie przyczyniają się do poprawy naszego życia – jak choćby rozwiązania opieki zdrowotnej.

Czyli Unia nie jest pionierem w regulacji sztucznej inteligencji?

W 2021 r. UE chwaliła się, że ten projekt to pierwszy akt regulujący te kwestie. Jednak termin jego przyjęcia wciąż przesuwano, najpierw na 2022, potem na 2023 r. A w tym czasie w USA przyjmuje się już konkretne przepisy, np. w zakresie zatrudnienia. Unia jest w tej kwestii ewidentnie nierychliwa, a jak już tworzy jakieś przepisy, to są one najzwyczajniej niedopracowane.

Pozostaje jeszcze kwestia szkód wyrządzonych przez inteligentne urządzenia gospodarstwa domowego. Skoro się uczą i mają pewną autonomię, to czy za ich działania odpowiada producent?

Zasada odpowiedzialności za skutki działania takich produktów pozostanie stała. Będzie jakaś forma odpowiedzialności solidarnej – twórcy urządzenia oraz operatora systemu. Najlepiej widać to na przykładzie samochodów półautonomicznych. Propozycje zmierzają do tego, by to producent musiał udowodnić, że szkoda wynikła z przyczyn od niego niezależnych. Jednak w kwestii odpowiedzialności należy się skupić na czymś innym: czy sądy będą w stanie takie rzeczy weryfikować. Bo co z tego, że producent pokaże dokumentację techniczną i ujawni, w jaki sposób algorytm podjął decyzję, jakie incydenty miały na nią wpływ, jeśli sąd nie będzie potrafił tego sprawdzić. Będzie to wymagało wiedzy eksperckiej sądów, zatrudniania biegłych.

Jak jest definiowana sztuczna inteligencja?

Żaden z aktów prawnych procedowanych obecnie przez Unię Europejską nie definiuje samej „sztucznej inteligencji”. Mimo że po raz pierwszy to pojęcie pojawiło się w latach 50., nie ukuło się jednoznaczne określenie, czym ona w ogóle jest, także w aspekcie prawnym. Zamiast tego eksperci projektujący przepisy skupili się na pojęciu „systemów sztucznej inteligencji”. Jest to jakaś forma oprogramowania, wykorzystująca techniki takie jak uczenie maszynowe, uczenie głębokie czy przetwarzanie języka naturalnego. Jest stworzona przez człowieka i wreszcie – wywołuje określone skutki w jego otoczeniu. Najważniejsze jest jednak, że jest to forma oprogramowania, a nie samodzielny i myślący konstrukt. Sztuczną inteligencję trzeba odczarować, pokazując jej prawdziwy techniczny charakter.

Pozostało jeszcze 91% artykułu
Rzecz o prawie
Łukasz Guza: Gorzka porażka sądownictwa
Materiał Promocyjny
Przed wyjazdem na upragniony wypoczynek
Rzecz o prawie
Arkadiusz Sobczyk: Firma jako administrator, czyli ważkie skutki błędu
Rzecz o prawie
Jacek Dubois: O sztuce dla prawa
Rzecz o prawie
Joanna Parafianowicz: Adwokaturo, czemu sobie to robisz?
Rzecz o prawie
Mikołaj Małecki: „Nie bać Tuska” kontra osiem gwiazdek