Tej kwestii poświęcone było spotkanie: “Przyjazna strona AI. Dlaczego sztuczna inteligencja powinna rozwijać się w sposób zrównoważony”, zorganizowane przez IDEAS NCBR. Jest to ośrodek badawczo-rozwojowy powołany przez Narodowe Centrum Badań i Rozwoju, działający w obszarze sztucznej inteligencji i ekonomii cyfrowej, którego misją jest wsparcie rozwoju tych technologii w Polsce, poprzez stworzenie platformy łączącej środowisko akademickie z biznesowym.
Katarzyna Szymielewicz, prezeska Fundacji Panoptykon, wskazała że choć systemy oparte na IA mogą być bardzo przydatne w monitorowaniu przestępczości, to ostateczne decyzje jak na nią reagować, powinny pozostać w rękach ludzi – polityków i sędziów. Zwróciła również uwagę, że wytrenowanie algorytmów na danych pobieranych wyłącznie w legalny sposób, jest obecnie niemożliwe. Dlatego, jeśli sztuczna inteligencja miałaby służyć rozwiązywaniu społecznych problemów, powinna ona mieć dostęp do danych z publicznych rejestrów, ale wyłącznie w celu realizacji konkretnych celów, przede wszystkim badawczych.
Czytaj więcej
Wytwór sztucznej inteligencji może naruszać prawa autorskie, ale on sam nie podlega ochronie.
Ponadto państwo, które dziś chętnie przekazuje dane biznesowi, powinno podjąć działania, by wykorzystywać dane ogólnodostępne właśnie do rozwiązywania społecznych problemów. Podkreśliła też, że bardzo ważne jest szczegółowe uregulowanie samego procesu „uczenia” algorytmów sztucznej inteligencji – od tego bowiem zależy ich dalsze działanie, to z jakich danych korzystają, oraz jakim wykrzywieniom mogą podlegać wyniki ich pracy. Tymczasem Unia Europejska, pracując nad aktem o sztucznej inteligencji, skupia się raczej na ogólnych założeniach i wartościach, jak to że sztuczna inteligencja powinna być „etyczna” czy „transparentna” – a to nie wystarczy do rozwiązania problemów, jakie wiążą się z użyciem tej technologii.
Prezes IDEAS NCBR Piotr Sankowski zwrócił uwagę, że sztuczna inteligencja już od dłuższego czasu i badania to potwierdzają, że lekarze którzy korzystają z pomocy tego narzędzia np. przy diagnostyce, podejmują lepsze decyzje, nawet jeśli nie zawsze postępują zgodnie z sugestiami IA. Z drugiej strony, ludzie często nie ufają wskazaniom nawigacji samochodowej, mimo, że zostało udowodnione, iż zawsze kieruje ona na najszybszą drogę. Wskazał jednak na dużą rolę „wyjaśnialności” sztucznej inteligencji, czyli tego, na podstawie jakich danych uzyskała ona takie, a nie inne wyniki.