Prof. Michał Jackowski: Alkoholowe tubki i zakazane systemy AI

Gdyby alkotubki były systemami AI, ewidentnie ich sprzedaż byłaby zakazana.

Publikacja: 04.10.2024 15:51

Prof. Michał Jackowski: Alkoholowe tubki i zakazane systemy AI

Foto: Adobe Stock

Od kilku dni trwa dyskusja na temat tubek z mocnymi alkoholami, które jeden z producentów wprowadził na rynek. Tubki przypominają zarówno kształtem jak i kolorystyką musy owocowe. Prawnicy i politycy rozmawiają o tym, czy można wprowadzić na rynek towar, który jest reglamentowany i szkodliwy dla zdrowia, w opakowaniu lub kształcie podobnym do produktu zdrowego, ekologicznego, a zwłaszcza kierowanego do dzieci i młodzieży. Pojawiły się doniesienia o przypadkach gdy seniorzy kupowali alkotubki swoim wnukom myląc je z owocowymi deserami. Efektem dyskusji jest już wycofanie tych produktów z obrotu a zapowiadana jest zmiana prawa skutkująca zakazaniem takiej praktyki w przyszłości.

Czytaj więcej

Afera z alkotubkami. Ministerstwo Zdrowia: jest pierwsza dymisja

Nie chciałbym prowadzić tu dyskusji na temat szkodliwości alkoholu i wprowadzania konsumentów w błąd opakowaniami produktów. Chciałbym natomiast pokazać, że w sposób podobny do alkotubek mogą działać tzw. zakazane systemy AI.

Z początkiem sierpnia 2024 r. rozpoczął się w Unii Europejskiej proces wchodzenia w życie przepisów Rozporządzenia o sztucznej inteligencji. Jest on stopniowy i potrwa do sierpnia 2027 roku. Jako pierwsze wchodzą w życie już 2 lutego 2025 roku przepisy zakazujące używania oraz wprowadzania na rynek systemów AI, które spełniają kryteria praktyk zakazanych. Za ich wykorzystanie lub dystrybuowanie nałożone mogą zostać dotkliwe administracyjne kary pieniężne, do 35 milionów euro lub 7% całkowitego rocznego światowego obrotu firmy z poprzedniego roku.

Praktyki zakazane zostały zdefiniowane w art. 5 AI Aktu. Jako że sam przepis jest dość ogólny, Komisja Europejska zobowiązała się przedstawić przykłady systemów objętych zakazem oraz podać szczegółowe informacje pozwalające ocenić, czy dany system wpisuje się w kryteria określone w Rozporządzeniu. Ma to nastąpić na przełomie 2024 i 2025 roku. Ale firmy powinny już dostosowywać się do nowych przepisów. Wyjaśnijmy zatem jak rozumieć te najbardziej niejasne.

Czytaj więcej

AI Act wchodzi w życie, ale nie cały od razu

Praktyki zakazane to działania, których rezultaty mogą mieć bardzo nieetyczny lub niebezpieczny charakter. I duża część art. 5 Aktu o AI jest dość jasna. Wszyscy wychowani w europejskim systemie wartości zgodzimy się z tym, że niedopuszczalne muszą być: przypominający chińską politykę społeczną social scoring, podobne do przedstawionego w filmie „Raport mniejszości” systemy predykcji przestępczości, tworzenie niektórych baz danych służących rozpoznawaniu twarzy, czy też wyciąganie wniosków za pomocą AI na temat emocji w miejscach pracy. Ja chciałbym jednak skoncentrować się na praktykach trudniejszych do zrozumienia i wyjaśnienia. Akt o sztucznej inteligencji zakazuje wprowadzania do obrotu albo używania systemów AI, które stosują techniki podprogowe, manipulacyjne lub wprowadzające w błąd, skutkujące zniekształceniem podejmowanych przez daną osobę decyzji w sposób powodujący istotne szkody. Zakazuje również wykorzystywania słabości osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, skutkujących zniekształceniem podejmowanych decyzji w sposób powodujący istotne szkody. Zakazy te dotyczą narzędzi, których głównym celem jest subtelne wpływanie na decyzje zakupowe, aby zwiększyć sprzedaż określonych produktów. Taki system na przykład wykorzystuje techniki podprogowe poprzez delikatne dźwięki i obrazy, manipuluje reklamami, analizuje nawyki zakupowe, historie transakcji oraz dane z mediów społecznościowych, prezentuje produkty w taki sposób, aby wywołać u klienta wrażenie, że są one mu niezbędne lub specjalnie dostosowane do jego potrzeb, mimo że tak nie jest. Drugi z zakazów odnosi się do osób szczególnie podatnych na wprowadzenie w błąd – np. niepełnosprawnych, trwale schorowanych psychicznie lub fizycznie, żyjących w skrajnym ubóstwie, czy pochodzących z mniejszości etnicznych lub religijnych. Tym bardziej niedopuszczalne jest manipulowanie ich decyzjami przy pomocy sztucznej inteligencji.

Gdy będziecie się zastanawiać, jak zrozumieć art. 5 Rozporządzenia o sztucznej inteligencji, pomyślcie o alkotubkach. Działają w sposób ewidentnie manipulacyjny, przypominając zdrowy mus owocowy. Wpływają podprogowo, sugerując osobom nadużywającym alkoholu, że piją coś zdrowego. Powodują, że możemy kupić i wypić więcej alkoholu. Ewidentnie są kierowane również do osób uzależnionych od alkoholu, a więc grupy szczególnie podatnej na manipulację. A efektem może być znacząca szkoda w zdrowiu. Gdyby alkotubki były systemami AI, ewidentnie ich sprzedaż byłaby zakazana. I to właśnie takie narzędzia – „AIowe tubki alkoholowe” od lutego 2025 roku będą zakazane.

Od kilku dni trwa dyskusja na temat tubek z mocnymi alkoholami, które jeden z producentów wprowadził na rynek. Tubki przypominają zarówno kształtem jak i kolorystyką musy owocowe. Prawnicy i politycy rozmawiają o tym, czy można wprowadzić na rynek towar, który jest reglamentowany i szkodliwy dla zdrowia, w opakowaniu lub kształcie podobnym do produktu zdrowego, ekologicznego, a zwłaszcza kierowanego do dzieci i młodzieży. Pojawiły się doniesienia o przypadkach gdy seniorzy kupowali alkotubki swoim wnukom myląc je z owocowymi deserami. Efektem dyskusji jest już wycofanie tych produktów z obrotu a zapowiadana jest zmiana prawa skutkująca zakazaniem takiej praktyki w przyszłości.

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Tomasz Pietryga: Sędzia pijak albo złodziej czy czas trwania procesów? Co bardziej szokuje?
Opinie Prawne
Robert Gwiazdowski: Jeden rabin mówi, że Korneluk, drugi, że Barski
Opinie Prawne
Jarosław Kuisz: Czy sztuczna inteligencja zastąpi neosędziów?
Opinie Prawne
Rafał Dębowski: Prawo lotnicze. Przepis na paraliż inwestycyjny
Opinie Prawne
Karolina Szulc-Nagłowska: Czego uczy nas konflikt w rodzinie Zygmunta Solorza