Kaganiec na AI. Czy biznes jest gotowy na zmiany, które właśnie ruszają?

Przepisy pierwszego unijnego rozporządzenia regulującego kwestie sztucznej inteligencji wchodzą w życie 1 sierpnia. Za złamanie nowych zasad przedsiębiorcom grożą gigantyczne kary.

Publikacja: 02.08.2024 04:30

Kaganiec na AI. Czy biznes jest gotowy na zmiany, które właśnie ruszają?

Foto: Adobe Stock

AI Act jest jednym z pierwszych na świecie zbiorem przepisów, który w tak zaawansowany i kompleksowy sposób reguluje kwestie związane z korzystaniem i wprowadzaniem do obrotu sztucznej inteligencji. W dobie, gdy z zaawansowanymi algorytmami spotykamy się niemal na każdym kroku, nieznajomość tych regulacji może być kosztowna. Przepisy powinny zainteresować więc nie tylko firmy technologiczne, ale i podmioty, które rozpowszechniają i wykorzystują AI na co dzień.

AI Act – kogo dotyczy?

Rozporządzenie, które w głównej mierze ma zapewnić bezpieczny rozwój tej technologii, minimalizując ryzyko wystąpienia nadużyć, w głównej mierze odnosi się do dostawców, importerów i dystrybutorów tej technologii. Co istotne, przepisy obejmują również użytkowników AI. I choć nie wszystkie paragrafy AI Act zaczną obowiązywać od razu, to i tak przedsiębiorcy i państwa członkowskie UE będą musiały dostosować się do nowej regulacji w okresie przejściowym. Warto zaznaczyć, że rozporządzenie będzie wiążące, a jego wymóg stosowania w poszczególnych krajach UE nie będzie wcale wymagał dodatkowego wprowadzania legislacji na krajowym gruncie prawnym. Polska to jednak robi i chce być pierwsza w UE. Resort cyfryzacji podał, iż jest obecnie na etapie prac legislacyjno-redakcyjnych nad implementacją tych przepisów. W sierpniu mają ruszyć uzgodnienia międzyresortowe, a gotowy projekt pod obrady Rady Ministrów trafić mógłby jeszcze w br.

Zgodnie z zapisami AI Act nowe unijne przepisy zaczną obowiązywać w perspektywie roku od dnia wejścia w życie (czyli 1 sierpnia br.). Część regulacji zyska jednak moc wcześniej, bo już po upływie pół roku. Odnosi się to przede wszystkim od przepisów ogólnych oraz przepisów dotyczących zakazanych praktyk. Ustępy odnoszące się do kar za niedostosowanie się do nowych reguł wejdą w życie dokładnie za rok. Za dwa lata zaś wejdzie wymóg tzw. transparentności (obowiązek informowania użytkownika, że wchodzi w interakcję z modelem sztucznej inteligencji). Ale są też zapisy, które obowiązywać będą dopiero za trzy lata. W tym ostatnim wypadku chodzi o kwestie odnoszące się do tzw. systemów AI wysokiego ryzyka.

Co w takim razie oznacza to dla firm? Ni mniej, nie więcej, że od 1 sierpnia mają sześć miesięcy na przygotowanie się do pierwszy obowiązków wynikających z rozporządzenia.

Czym jest AI Act i jak się dostosować

AI Act wprowadza klasyfikację systemów sztucznej inteligencji z podziałem na kategorie w oparciu o poziom ryzyka, który wynika ze stosowania sztucznej inteligencji. Przypisanie konkretnej AI do odpowiedniej grupy jest kluczowe. W zależności od klasyfikacji, przedsiębiorcy będą musieli spełnić odpowiednie obowiązki, aby móc wprowadzać, rozpowszechniać lub korzystać z systemu. Im wyższy poziom ryzyka, tym więcej przewidziano obowiązków związanych z wprowadzeniem i stosowaniem AI. I tak np. popularne chatboty zakwalifikowano do kategorii ograniczonego ryzyka, w grupie wysokiego ryzyka znalazły się natomiast m.in. systemy nadzoru pracowników czy technologie używane przy rekrutacji. W AI Act wyszczególniono również rozwiązania, których w UE całkowicie się zakazuje. Chodzi w tym wypadku o systemy wykorzystujące manipulacje (techniki podprogowe) w celu „zniekształcenia zachowania człowieka”.

Część prawników twierdzi, że pewne kontrowersje budzi sama definicja AI, zawarta w unijnym rozporządzeniu – jest ona bowiem niezbyt precyzyjna i posiada wiele niejasnych zwrotów, co z kolei może powodować trudności w określeniu, czy dany system należy uznać za sztuczną inteligencję, czy też nie. Eksperci z PwC zauważają, że w konsekwencji zakres stosowania przepisów może być znacznie szerszy niż to wygląda na pierwszy rzut oka. Ich zdaniem „pomocy w próbie lepszego zrozumienia definicji będzie trzeba szukać w decyzjach krajowych i unijnych organów, które będą dokonywać jej interpretacji na potrzeby prowadzonych postępowań”.

Dla firm wdrażających systemy sztucznej inteligencji (przy założeniu, że dotyczy to kategorii niskiego ryzyka), kluczowe będzie zapewnienie odpowiedniego poziomu transparentności. W praktyce ma się to sprowadzać np. do tego, by użytkownicy (osoby fizyczne) tych rozwiązań AI były informowane, że system z którego korzystają, jest sztuczną inteligencją. Z kolei w przypadku kategorii wysokiego ryzyka dostawcy będą zobligowani do spełnienia licznych wymogów, w tym przeprowadzenia analizy i oceny przewidywanych zagrożeń, bądź wdrożenia systemu zarządzania ryzykiem. Firmy muszą zdawać sobie sprawę, że za naruszenie rozporządzenia grożą im sankcje – maksymalnie kary mogą sięgać nawet 35 mln euro lub do 7 proc. całkowitego rocznego obrotu.

Ryzyka dla firm związane z AI

Korzystanie ze sztucznej inteligencji w polskich firmach wciąż przypomina trochę Dziki Zachód. Tymczasem ryzyka dla firm są wcale niemałe – utrata poufności danych, rozproszona odpowiedzialność za podejmowanie błędnych decyzji, naruszenia własności intelektualnej, niezgodność z regulacjami oraz problemy z międzynarodowym transferem danych, to tylko kilka z nich. Problem w tym, że – jak wyjaśnia Aleksandra Maciejewicz, rzeczniczka patentowa i prawniczka w kancelarii Lawmore, niektóre firmy nawet nie wiedzą, jakie narzędzia AI są używane przez ich pracowników. – A przecież jedną z kluczowych kwestii jest regularne sprawdzanie regulaminów tych narzędzi. Transparentność w komunikacji z klientami na temat wykorzystania AI w obsłudze i innych procesach również nie jest taka oczywista w wielu firmach – podkreśla Maciejewicz.

Narzędzia sztucznej inteligencji upowszechniły się wraz z wydaniem w 2022 r. usług i modeli AI do generowania grafiki Dall-e, StableDiffusion oraz chatu ChatGPT. Jednak wdrożenie zasad bezpieczeństwa, określenie zasad korzystania z AI, w tym lista dozwolonych i zabronionych zastosowań AI w firmie, jest wciąż rzadkością. – Dla właścicieli firm ważne jest nie tylko zrozumienie, jak AI może zwiększyć efektywność i innowacyjność, ale także to, jak mogą zapewnić bezpieczne i odpowiedzialne jej użycie – wskazuje prawniczka. – Z moich obserwacji wynika, że w większości przypadków mamy do czynienia z biurową partyzantką. Firmy ignorują skalę problemu korzystania z AI w codziennej pracy, natomiast pracownicy pozostawieni sami sobie, korzystają z darmowych narzędzi AI, zasilając algorytmy firmowymi danymi – przestrzega.

Według niej pracownicy często nie są świadomi niebezpieczeństw związanych z używaniem nieautoryzowanych narzędzi AI. – Zarządzanie ryzykiem związanym z AI powinno stać się priorytetem dla każdej organizacji. Kluczowe jest, aby firmy nie tylko dostrzegły problem, ale także aktywnie wdrażały rozwiązania zapobiegające niekontrolowanemu użyciu AI – dodaje Maciejewicz.

AI Act jest jednym z pierwszych na świecie zbiorem przepisów, który w tak zaawansowany i kompleksowy sposób reguluje kwestie związane z korzystaniem i wprowadzaniem do obrotu sztucznej inteligencji. W dobie, gdy z zaawansowanymi algorytmami spotykamy się niemal na każdym kroku, nieznajomość tych regulacji może być kosztowna. Przepisy powinny zainteresować więc nie tylko firmy technologiczne, ale i podmioty, które rozpowszechniają i wykorzystują AI na co dzień.

AI Act – kogo dotyczy?

Pozostało 93% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Gospodarka grecka rozkwitła dzięki turystyce. Wakacje w tym kraju podrożeją
Biznes
Szaleństwo cen w US Open. Tenis to wielki biznes
Biznes
Rafał Brzoska zapowiada: co drugi nowy paczkomat nie będzie miał ekranu
Biznes
Wojsko wielkie, ale małe. Szczyt dużych zakupów uzbrojenia za nami
Biznes
Aukcja 5G 2.0 o krok bliżej. Co się może wydarzyć?
Materiał Promocyjny
Citi Handlowy kontynuuje świetną ofertę dla tych, którzy preferują oszczędzanie na wysoki procent.