Bartosz Łabęcki, Łukasz Wieczorek: Wiedza o AI pomoże okiełznać nie tylko chińskiego smoka

AI Act wymaga rozwijania kompetencji osób tworzących i korzystających z systemów sztucznej inteligencji. Kluczowe jest tu ewolucyjne podejście.

Publikacja: 20.02.2025 13:54

Bartosz Łabęcki, Łukasz Wieczorek: Wiedza o AI pomoże okiełznać nie tylko chińskiego smoka

Foto: Adobe Stock

Rynkowy debiut DeepSeek, nowego chatbota rodem z Chin, zbiegł się w czasie z wejściem w życie kolejnej partii przepisów AI Act – m.in. tzw. obowiązku AI Literacy. Unia Europejska oczekuje rozwijania kompetencji w zakresie AI w przypadku osób zatrudnionych w podmiotach tworzących i korzystających z rozwiązań opartych na sztucznej inteligencji.

Takie narzędzia AI jak np. DeepSeek generują szereg ryzyk prawno-biznesowych, a świadomość w tym względzie jest wciąż relatywnie niska. Tymczasem edukowanie w zakresie AI stało się prawnym obowiązkiem.

Systemy AI. Jest DeepSeek, czyli nowe narzędzie z Chin, ale pozostają stare problemy

Światło jupiterów padło na Chiny za sprawą narzędzia DeepSeek, którego darmowa wersja błyskawicznie stała się numerem jeden wśród aplikacji w kategorii AI. Chiński smok z impetem rzucił rękawicę już obecnym na rynku dostawcom popularnych chatbotów. Podczas gdy twórcy ChatGPT, Gemini czy Copilot, zastanawiają się, jak odpowiedzieć na DeepSeek, w międzyczasie zaczęły obowiązywać przepisy unijnego AI Act dotyczące obowiązku AI Literacy.

Akt ten wszedł w życie co prawda już pół roku temu, ale start obowiązywania poszczególnych postanowień został odsunięty w czasie i podzielony na etapy. Od 2 lutego 2025 r. zaczął obowiązywać zakaz wprowadzania do obrotu lub wykorzystywania tzw. systemów niedopuszczalnych (art. 5) oraz przepis obligujący do rozwijania kompetencji zatrudnionych w zakresie AI (art. 4). Ten drugi przepis, choć na pierwszy rzut oka niepozorny, a na pewno mniej „medialny” niż katalog systemów niedopuszczalnych – powinien trafić pod strzechy każdej firmy zarówno dostarczającej, jak i korzystającej z systemów AI.

Narzędzia generatywnej sztucznej inteligencji, takie jak DeepSeek i inne wymienione wyżej, skupiają jak w soczewce główne problemy i ryzyka prawno-biznesowe, jakie czyhają na użytkowników systemów AI. Choć DeepSeek jest świeżym rozwiązaniem, dzieli on te same, „wrodzone” wady co inne rozwiązania obecne na rynku. W przypadku DeepSeek w pewnych aspektach te problemy i ryzyka są jednak szczególnie widoczne.

Warto na tym przykładzie wyświetlić kwestie, o których należy pamiętać, edukując kadry korzystające z rozwiązań AI, a także uchwycić narzędzia i sposoby realizacji nakazu AI Literacy. AI Act wymaga rozwijania kompetencji w zakresie sztucznej inteligencji wśród osób tworzących i korzystających z takich systemów. Kompetencje te zależą od roli użytkownika. Końcowi użytkownicy powinni rozumieć wpływ decyzji podejmowanych przez AI i umieć interpretować jej wyniki (np. w przypadku preselekcji CV). Inżynierowie rozwijający AI powinni natomiast znać techniczne aspekty jej tworzenia i wdrażania. Kompetencje w dziedzinie AI to zatem wiedza o szansach i zagrożeniach płynących ze stosowania systemu AI, które mogą być różne m.in. w zależności od tego, czy dana osoba tworzy, czy korzysta ze sztucznej inteligencji. Od strony prawno-biznesowej AI Literacy powinno obejmować również budowanie świadomości ryzyk i zagrożeń na tle poufności, bezpieczeństwa cybernetycznego, danych osobowych czy prawa własności intelektualnej.

DeepSeek jako chiński „koń trojański”, czyli bezpieczeństwo narzędzi AI

Bezpieczeństwo to fundamentalny aspekt rozwijania kompetencji AI w firmach. DeepSeek już na starcie zaliczył słabe wyniki, a pojawiły się nawet oskarżenia, że to „koń trojański” chińskiego wywiadu, mający potajemnie wykradać dane użytkowników. Wzbudził on szczególne kontrowersje, ale problem bezpieczeństwa nie dotyczy tylko tego modelu. Generatywna AI otwiera nowe możliwości dla cyberprzestępców, którzy mogą wykorzystywać ją do manipulacji i wyłudzania informacji. AI coraz lepiej imituje język, głos i obraz.

Kolejnym problemem jest brak weryfikacji rezultatów generowanych przez narzędzia AI. Halucynacje modeli językowych mogą udzielać fałszywych informacji, co w zależności od kontekstu ich wykorzystania może mieć poważne konsekwencje. W przypadku zastosowań biznesowych, niezweryfikowane odpowiedzi mogą prowadzić do podejmowania błędnych decyzji operacyjnych (halucynacji), np. na podstawie nieistniejących regulacji prawnych czy fałszywych analiz rynkowych. W obszarze medycyny generatywna AI może zasugerować nieprawidłowe diagnozy lub niebezpieczne zalecenia terapeutyczne, co stanowi realne zagrożenie dla zdrowia i życia pacjentów.

Czytaj więcej

Skarga przewidziana w AI Act nie poprawia sytuacji obywateli

Elementem budowania kompetencji w zakresie AI powinno być również uświadomienie zatrudnionych w kwestii praw autorskich do treści powstających z pomocą narzędzi sztucznej inteligencji. Generatywna AI dostarcza użytkownikowi treści, ale nie bezinteresownie. Narzędzia GenAI często działają na zasadzie „licencji zwrotnej” – treści wprowadzone przez użytkownika mogą być wykorzystywane przez dostawcę narzędzia we własnych celach. W przypadku DeepSeek użytkownik zachowuje prawa do swoich danych wejściowych, ale regulamin daje dostawcy dużą swobodę w dysponowaniu nimi, w tym możliwość trenowania modelu. Choć formalnie użytkownik nie traci praw do wprowadzonych treści, nie ma pełnej kontroli nad tym, jak i do czego zostaną one później użyte. Takie postanowienia mogą mieć istotne konsekwencje zarówno pod kątem własności intelektualnej, jak i tajemnicy przedsiębiorstwa, zwłaszcza gdy do modelu trafiają wrażliwe lub strategicznie istotne informacje.

Szczególnym aspektem edukacji w zakresie AI powinna być kwestia danych osobowych i postępowania z nimi w interakcji z AI. Są one paliwem dla modeli AI, ale ich niewłaściwe wykorzystanie niesie poważne konsekwencje dla prywatności użytkowników. Pojawiają się ryzyka deanonimizacji, niekontrolowanego przetwarzania oraz używania wrażliwych informacji użytkowników do dalszego trenowania modeli AI.

Czytaj więcej

Nowe technologie w ryzach prawnych. Czy w 2025 r. zmierzymy się z przepisami na miarę RODO?

Używanie narzędzi AI w firmie. Edukacja przez szkolenia

Oceniając te ryzyka, budowanie AI Literacy jest zdecydowanie rozsądnym i odpowiedzialnym posunięciem. Kompetencje w zakresie AI można budować na różne sposoby. Elementarne są oczywiście szkolenia pracowników. Dostępne są również certyfikacje w zakresie AI (np. norma ISO/IEC 42001). Można spodziewać się też różnych branżowych kodeksów dobrych praktyk. Rośnie również zainteresowanie wewnątrzfirmowymi regulaminami korzystania z AI, które określają, co wolno, a czego lepiej unikać. Firmy coraz częściej powołują także AI officerów lub interdyscyplinarne zespoły ds. AI, które dbają o zgodność z regulacjami i bezpieczeństwo stosowania tych technologii. 

Kluczowe w ramach wdrażania AI Literacy jest podejście ewolucyjne. Wszak edukacja w zakresie AI jest ciągłym procesem, który musi nadążać za rozwojem technologii.

Bartosz Łabęcki jest adwokatem i senior associate w KWKR

Łukasz Wieczorek jest radcą prawnym i partnerem w KWKR

Rynkowy debiut DeepSeek, nowego chatbota rodem z Chin, zbiegł się w czasie z wejściem w życie kolejnej partii przepisów AI Act – m.in. tzw. obowiązku AI Literacy. Unia Europejska oczekuje rozwijania kompetencji w zakresie AI w przypadku osób zatrudnionych w podmiotach tworzących i korzystających z rozwiązań opartych na sztucznej inteligencji.

Takie narzędzia AI jak np. DeepSeek generują szereg ryzyk prawno-biznesowych, a świadomość w tym względzie jest wciąż relatywnie niska. Tymczasem edukowanie w zakresie AI stało się prawnym obowiązkiem.

Pozostało jeszcze 93% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Prawne
Piotr Szymaniak: Ofiara chyba tylko wtedy nie przyczyni się do tragedii, jeśli nie wychodzi z domu
Opinie Prawne
Michael McGrath: Ofiary przestępstw muszą być chronione w całej UE
Opinie Prawne
Piotr Aleksiejuk: Czy mamy do czynienia ze zmianą podejścia szefa KAS do fundacji rodzinnej?
Opinie Prawne
Robert Gwiazdowski: Komisja Wenecka była dobra, jak krytykowała PiS. Teraz jest „zaślepiona legalizmem”
Opinie Prawne
Tomasz Pietryga: Deregulacja Brzoski – falstart czy tylko rekonesans?