Porozumienie osiągnięte w kolejnej turze trójstronnych negocjacji (tzw. trilog) Rady, PE i KE to na razie zbiór wytycznych i politycznych kierunków, w jakich ma iść regulacja. Dokładny tekst rozporządzenia ws. AI poznamy za miesiąc lub dwa, gdy zostanie dopracowany. A diabeł, jak zwykle, tkwi w szczegółach.
– Pewne kwestie zostały jednak rozstrzygnięte – np. ta dotycząca modeli generatywnych czy AI ogólnego przeznaczenia, które często są podstawą wielofunkcyjnych systemów i programów, przydatnych w różnych zadaniach, takich jak GPT, Gemini czy Anthropic – mówi Filip Konopczyński z Fundacji Panoptykon. – W ich wypadku regulacja ma działać proporcjonalnie – minimalne obowiązki dla modeli z niewielką ilością użytkowników (firmy, konsumenci), ścisłe regulacje dla tych z najsilniejszą pozycją rynkową – dodaje.
– Z dostępnych komunikatów wynika, że to, co wcześniej wypracowano, zostanie utrzymane – mówi dr Michał Nowakowski, radca prawny z Rymarz Zdort Maruta. – Chodzi o informowanie, na jakich zbiorach danych są „trenowane” modele AI, a także inne obowiązki przejrzystości. Ale w modelach, które rodzą ryzyko systemowe dla praw podstawowych, obowiązki obejmą też np. procedurę raportowania incydentów cyberbezpieczeństwa czy naruszenia praw podstawowych – podsumowuje.
Czytaj więcej
Dekret Joe Bidena ws. „bezpiecznej i godnej zaufania sztucznej inteligencji” stał się pierwszym aktem prawnym regulującym tę dziedzinę. Unia Europejska wciąż jednak nie jest na przegranej pozycji w tym wyścigu.
Z kolei Eliza Turowicz, specjalistka w Departamencie Rynku Cyfrowego Konfederacji Lewiatan, mówi, że w ocenie przedsiębiorców nowe brzmienie zaprzecza głównemu podejściu, które przyświecało KE przy publikacji pierwszej wersji projektu, tj. podejściu na podstawie ryzyka.