O zamiarze przygotowania takich zasad poinformował prezes NRA na ostatnim posiedzeniu jej prezydium.
– Generatywna AI dynamicznie wchodzi w nasze życie, tworzy też możliwość wykorzystywania jej w praktyce adwokackiej – mówi Przemysław Rosati. – Mamy tu dwa główne zagadnienia: zasady bezpiecznego wykorzystywania tego typu narzędzi (w szczególności chodzi tu o tajemnicę zawodową) oraz odpowiedzialność za skutki korzystania z nich (głównie w aspekcie etyki zawodowej). A ponieważ to zagadnienie nie jest w ogóle uregulowane, to jako samorząd nie możemy nie dostrzegać tego wyzwania – wyjaśnia prezes NRA. Wskazuje, że proces rozwoju generatywnej sztucznej inteligencji jest bardzo dynamiczny, a rekomendacje mają służyć przede wszystkim bezpieczeństwu klientów, ale też adwokatów. Ze względu na konieczność uwzględnienia obu tych aspektów, prace nad rekomendacjami prowadzone będą jednocześnie przez zespół Instytutu LegalTech przy NRA oraz Zespół ds. zmian w Zbiorze Zasad Etyki Adwokackiej i Godności Zawodu.
Czytaj więcej
Parlament Europejski zakazał masowej inwigilacji z wykorzystaniem AI. Ale będzie się w tej sprawie spierał z rządami państw UE.
– Wykorzystywanie narzędzi generatywnej AI (np. ChatGPT lub Bard) jest widoczne w branży prawnej – tłumaczy Przemysław Barchan, dyrektor Instytutu LegalTech. – Technologia niesie ze sobą wiele usprawnień i możliwości, ale jednocześnie wiążą się z nią istotne ryzyka związane m.in. z zapewnieniem poufności informacji objętych tajemnicą zawodową adwokata i bezpieczeństwem cybernetycznym. Planowane rekomendacje i zmiany w regulacjach korporacyjnych mają na celu wsparcie członków samorządu w bezpiecznym i zgodnym z zasadami etyki zawodowej wykorzystaniu AI w praktyce adwokackiej – dodaje.
Jeśli zaś chodzi o kwestie deontologiczne, to podstawowy problem sprowadza się do tego, kto odpowiada za efekt działania takiej generatywnej sztucznej inteligencji.