Reklama

Unia nie stanie się drugimi Chinami. Prace nad Aktem o Sztucznej Inteligencji

Dwie komisje Parlamentu Europejskiego przegłosowały zakaz stosowania systemów biometrycznych, rozpoznawania twarzy i emocji, czy prognozowania przestępstw. To ważny krok w kierunku uchwaleniu Aktu o Sztucznej Inteligencji, pierwszej tego typu regulacji na świecie.

Publikacja: 11.05.2023 14:07

Unia nie stanie się drugimi Chinami. Prace nad Aktem o Sztucznej Inteligencji

Foto: Adobe Stock

Prace nad tzw. „AI Act” trwają już od dwóch lat. W czwartek na posiedzeniu Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) oraz Komisji Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) europarlamentarzyści przyjęli wszystkie 13 zgłoszonych kompromisowych poprawek. Warto wskazać, że wprowadzenie zakazu rozpoznawania twarzy było niepewne, gdyż centro-prawica domagała się pozostawienia takiej możliwości, w celu zwalczania poważnych przestępstw, jak terroryzm. Był to jedyny punkt, nad którym głosowano elektronicznie (poparło go 58 europosłów ze 103 obecnych na sali). W pozostałych przypadkach głosowano przez podniesienie ręki, gdyż większość była wyraźna.

Czytaj więcej

Problem ze sztuczną inteligencją. Nowe możliwości i zagrożenia dla twórców

Przyjęcie tekstu kompromisowego przez połączone komisje to ważny krok w kierunku przyjęcia „IA Act”, ale prace są dalekie od ukończenia. Teraz stanowisko komisji będzie głosowane podczas sesji plenarnej w dniach 12-15 czerwca. Następnie rozpocznie się tzw. dialog, czyli negocjacje między Komisją, Parlamentem i Radą, w celu przyjęcia ostatecznego tekstu aktu. Można się spodziewać, że zostanie on przyjęty do końca tego roku.

"Wielki brat" nie będzie patrzył

Najważniejsze poprawki dotyczą rozszerzenia katalogu niedozwolonych technologii AI. Dodano do nich systemu, które pozwalają na zdalną identyfikację biometryczną w przestrzeniach publicznie dostępnych, zarówno w czasie rzeczywistym, jak i następczej. W tym drugim przypadku wprowadzono jednak wyjątek – dla ścigania poważnych przestępstw, ale tylko po uzyskaniu wcześniejszej zgody sądu. Technologie IA pozwalają też na „przewidywanie” przestępstw, w oparciu o profilowanie podejrzanych, ich wcześniejsze przewinienia, oraz miejsca, gdzie najczęściej dochodzi do przestępstw. Takie rozwiązania też będą w UE zakazane.

Reklama
Reklama

Ponadto zakaz objął systemy pozwalające na biometryczną kategoryzację ludzi w oparciu o wrażliwe dane, takie jak płeć, rasa, etniczność, obywatelstwo, a nawet wyznanie czy poglądy polityczne. Zabronione będzie również „niedyskryminacyjne” (czyli dotyczące wszystkich) zbieranie danych biometrycznych np. z socialmediów czy kamer monitoringu miejskiego, w celu tworzenia bazy danych do rozpoznawania twarzy. Zdaniem europosłów, narusza to prawo do prywatności. Na liście niedozwolonych technologii znalazły się też te, pozwalające na rozpoznawanie emocji – czy to przez organy ścigania, instytucje edukacyjne, w miejscach pracy czy podczas kontroli granicznej.

Czytaj więcej

Do czego może się przydać sztuczna inteligencja?

Ograniczanie ryzyka

Drugą kategorią systemów sztucznej inteligencji przewidzianą w „IA Act” są te stanowiące wysokie ryzyko. Nie są zakazane, ale muszą spełniać wiele wymagań i standardów, by ograniczyć ich potencjalne negatywnej skutki dla zdrowia, bezpieczeństwa, środowiska i praw podstawowych. Dziś Komisje dodały do tej listy narzędzia pozwalające wpływać na wyborców w czasie kampanii, oraz systemy rekomendacji stosowane przez media społecznościowe (z których korzysta 45 mln osób).

Trzecia kategoria to systemy tzw. ogólnego zastosowania – które mogą stwarzać zarówno niewielkie, jak i poważne zagrożenie dla praw obywateli UE, zależnie od tego, do czego zostaną wykorzystane. Chodzi tu przede wszystkim o tzw. duże modele językowe, jak popularny ChadGPT. Ich dostawcy będą musieli zagwarantować silną ochronę zdrowia, bezpieczeństwa, środowiska i praw podstawowych, jak również demokracji i rządów prawa. Ponadto przy ich wprowadzaniu, niezbędna będzie ocena – i minimalizacja – ryzyka naruszenia powyższych wartości, jak również spełnienie licznych wymogów informacyjnych i środowiskowych przy projektowaniu takich systemów, oraz rejestracja ich w unijnej bazie danych.

Transparentność to podstawa

Reklama
Reklama

Ponadto tzw. generatywna IA (czyli pozwalająca tworzyć nowe teksty, obrazy, dźwięki) będzie poddana dodatkowym wymogom transparentności, takim jak informacja, że dana treść została stworzona przez sztuczną inteligencję, zabezpieczenie przed kreowaniem nielegalnych materiałów, jak równie publikacja sumarycznych danych (objętych prawem autorskim) wykorzystanych do „nauczenia” takiego systemu IA.

Od powyższych zasad przewidziano jednak wyjątki dla systemów tworzonych w celach badawczych oraz udostępnianych na wolnej licencji. Powinny one jednak powstawać w środowiskach kontrolowanych, ustanowionych wcześniej przez władze publiczne. Wreszcie europarlamentarzyści postanowili wzmocnić prawa obywateli UE do składania skarg na działanie IA oraz domagania się wyjaśnienia dotyczących ich decyzji, podejmowanych przez systemy wysokiego ryzyka, mające znaczący wpływ na ich prawa. Planowany Urząd Unii Europejskiej ds. Sztucznej Inteligencji ma też otrzymać dodatkowe kompetencje do monitorowania implementacji zasad dotyczących tych technologii.

Zawody prawnicze
Notariusze zwalniają pracowników i zamykają kancelarie
Nieruchomości
Mała zmiana prawa, która mocno uderzy w patodeweloperkę
Zawody prawnicze
Reforma już rozgrzewa prokuratorów, choć do jej wdrożenia daleka droga
Nieruchomości
To już pewne: dziedziczenia nieruchomości z prostszymi formalnościami
Nieruchomości
Co ze słupami na prywatnych działkach po wyroku TK? Prawnik wyjaśnia
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama