Narzędzia generatywnej sztucznej inteligencji, takie jak DeepSeek i inne wymienione wyżej, skupiają jak w soczewce główne problemy i ryzyka prawno-biznesowe, jakie czyhają na użytkowników systemów AI. Choć DeepSeek jest świeżym rozwiązaniem, dzieli on te same, „wrodzone” wady co inne rozwiązania obecne na rynku. W przypadku DeepSeek w pewnych aspektach te problemy i ryzyka są jednak szczególnie widoczne.
Warto na tym przykładzie wyświetlić kwestie, o których należy pamiętać, edukując kadry korzystające z rozwiązań AI, a także uchwycić narzędzia i sposoby realizacji nakazu AI Literacy. AI Act wymaga rozwijania kompetencji w zakresie sztucznej inteligencji wśród osób tworzących i korzystających z takich systemów. Kompetencje te zależą od roli użytkownika. Końcowi użytkownicy powinni rozumieć wpływ decyzji podejmowanych przez AI i umieć interpretować jej wyniki (np. w przypadku preselekcji CV). Inżynierowie rozwijający AI powinni natomiast znać techniczne aspekty jej tworzenia i wdrażania. Kompetencje w dziedzinie AI to zatem wiedza o szansach i zagrożeniach płynących ze stosowania systemu AI, które mogą być różne m.in. w zależności od tego, czy dana osoba tworzy, czy korzysta ze sztucznej inteligencji. Od strony prawno-biznesowej AI Literacy powinno obejmować również budowanie świadomości ryzyk i zagrożeń na tle poufności, bezpieczeństwa cybernetycznego, danych osobowych czy prawa własności intelektualnej.
DeepSeek jako chiński „koń trojański”, czyli bezpieczeństwo narzędzi AI
Bezpieczeństwo to fundamentalny aspekt rozwijania kompetencji AI w firmach. DeepSeek już na starcie zaliczył słabe wyniki, a pojawiły się nawet oskarżenia, że to „koń trojański” chińskiego wywiadu, mający potajemnie wykradać dane użytkowników. Wzbudził on szczególne kontrowersje, ale problem bezpieczeństwa nie dotyczy tylko tego modelu. Generatywna AI otwiera nowe możliwości dla cyberprzestępców, którzy mogą wykorzystywać ją do manipulacji i wyłudzania informacji. AI coraz lepiej imituje język, głos i obraz.
Kolejnym problemem jest brak weryfikacji rezultatów generowanych przez narzędzia AI. Halucynacje modeli językowych mogą udzielać fałszywych informacji, co w zależności od kontekstu ich wykorzystania może mieć poważne konsekwencje. W przypadku zastosowań biznesowych, niezweryfikowane odpowiedzi mogą prowadzić do podejmowania błędnych decyzji operacyjnych (halucynacji), np. na podstawie nieistniejących regulacji prawnych czy fałszywych analiz rynkowych. W obszarze medycyny generatywna AI może zasugerować nieprawidłowe diagnozy lub niebezpieczne zalecenia terapeutyczne, co stanowi realne zagrożenie dla zdrowia i życia pacjentów.
Skarga przewidziana w AI Act nie poprawia sytuacji obywateli
Projekt ustawy o systemach sztucznej inteligencji pogarsza sytuację skarżącego w porównaniu z obowiązującymi przepisami postępowania administracyjnego dotyczącymi skargi powszechnej – mówi prof. Grzegorz Sibiga, adwokat i partner w Traple Konarski Podrecki i Wspólnicy.
Elementem budowania kompetencji w zakresie AI powinno być również uświadomienie zatrudnionych w kwestii praw autorskich do treści powstających z pomocą narzędzi sztucznej inteligencji. Generatywna AI dostarcza użytkownikowi treści, ale nie bezinteresownie. Narzędzia GenAI często działają na zasadzie „licencji zwrotnej” – treści wprowadzone przez użytkownika mogą być wykorzystywane przez dostawcę narzędzia we własnych celach. W przypadku DeepSeek użytkownik zachowuje prawa do swoich danych wejściowych, ale regulamin daje dostawcy dużą swobodę w dysponowaniu nimi, w tym możliwość trenowania modelu. Choć formalnie użytkownik nie traci praw do wprowadzonych treści, nie ma pełnej kontroli nad tym, jak i do czego zostaną one później użyte. Takie postanowienia mogą mieć istotne konsekwencje zarówno pod kątem własności intelektualnej, jak i tajemnicy przedsiębiorstwa, zwłaszcza gdy do modelu trafiają wrażliwe lub strategicznie istotne informacje.