Pisklę pawia niszczy internet. AI przejęła wyniki wyszukiwania Google’a

Przez sztuczną inteligencję wpadliśmy w tzw. błędne koło dezinformacji – alarmują eksperci. Jak wskazują, algorytmy coraz częściej tworzą fikcyjne treści, które trafiają do sieci, a potem wykorzystywane są do szkolenia kolejnych modeli AI.

Publikacja: 22.10.2024 04:52

Jedynym sposobem na poradzenie sobie z zagrożeniami związanymi z tzw. błędnym kołem dezinformacji je

Jedynym sposobem na poradzenie sobie z zagrożeniami związanymi z tzw. błędnym kołem dezinformacji jest uświadamianie internautów i nauka krytycznego myślenia

Foto: Adobe Stock

Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.

Czytaj więcej

Walka z dezinformacją i deepfake. Google oznaczy spreparowane zdjęcia etykietą

– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.

Czy to koniec internetu?

Eksperci alarmują, że zalew fałszywymi treściami prowadzi do masowego zacierania granic między fikcją a rzeczywistością. Adobe Stock oznacza grafiki AI, ale w internecie jest wiele materiałów, które nie informują użytkowników, że nie są one prawdziwe. Co więcej, część wprowadza w błąd lub wręcz jest fałszywa. Analitycy zwracają uwagę, że na tak wadliwych danych dostępnych w sieci uczą się ludzie (zwłaszcza dzieci), ale i same algorytmy. Dezinformacja z powrotem przenika zatem do modeli AI. Treści generowane przez sztuczną inteligencję trafiają więc do internetu, potem są wykorzystywane do trenowania kolejnych modeli i – o ile nie ma weryfikacji – nieprawdziwe dane są powielane. To błędne koło.

Jak zauważa Dariusz Jemielniak, profesor w Akademii L. Koźmińskiego, specjalizujący się m.in. w problematyce dezinformacji, zagrożenie związane z tą tzw. pętlą zwrotną AI jest obecnie bardzo poważne i stale rośnie. – Modele generatywne AI stały się niezwykle zaawansowane i potrafią tworzyć realistyczne obrazy oraz teksty. Jednak brak odpowiedniej weryfikacji generowanych treści prowadzi do sytuacji, w której fałszywe informacje przenikają do przestrzeni publicznej – wyjaśnia Dariusz Jemielniak.

Czytaj więcej

Nie dla inwigilacji Europejczyków. AI staje się wszechobecna

Ambs-Thomsen twierdzi, że „kończy się era polegania na wynikach wyszukiwania w sieci”.

Czy to zatem koniec internetu, jaki znamy? Julia Krysztofiak-Szopa, była szefowa Startup Poland, zajmująca się szkoleniami z zakresu wykorzystania AI w codziennej pracy, wskazuje, że dziś nie jesteśmy w stanie oszacować skali zjawiska zalewu sieci fałszywymi treściami.

Niebezpieczne imitowanie rzeczywistości

– AI to niesłychanie dynamicznie rozwijająca się technologia, a problem jest tym większy, że mamy do czynienia z jej równie dynamiczną adopcją. Ludzie bardzo szybko zaczęli korzystać z narzędzi sztucznej inteligencji, tyle że wielu z nich nie jest świadomymi użytkownikami – mówi Krysztofiak-Szopa.

Według niej nie potrafimy rozpoznawać treści wygenerowanych przez algorytmy i odróżniać od tych tworzonych przez ludzi. – To spore wyzwanie edukacyjne, które dotyczy właściwie wszystkich grup społecznych – zarówno seniorów, jak i nauczycieli czy profesjonalistów w różnych dziedzinach – komentuje. I dodaje, że AI pozwala nam dziś łatwo imitować praktycznie wszystko.

– Na szkoleniach podaję przykład, jak generatywna AI potrafi zdefiniować inflację w stylu Olgi Tokarczuk. Sztuczna inteligencja produkuje treść, którą równie dobrze napisałaby noblistka. To robi duże wrażenie – wyjaśnia Julia Krysztofiak-Szopa.

Czytaj więcej

Joelle Pineau, wiceprezes Meta: Rozwój sztucznej inteligencji wymaga jasnych regulacji

Jej zdaniem to imitowanie, w sytuacji gdy nie mamy kompetencji czy narzędzi, które pozwalają odróżnić oryginalną treść od fałszywej, staje się niebezpieczne. – W tę pułapkę w sieci wpada wiele osób starszych, które bezkrytycznie pochłaniają informacje z internetu, nie bacząc przy tym na źródła – zaznacza Julia Krysztofiak-Szopa. – Jedynym sposobem na poradzenie sobie z tymi zagrożeniami jest uświadamianie internautów i nauka krytycznego myślenia. Musimy uwrażliwić się na to, że online bombardują nas treści, które niekoniecznie są wiarygodne – kontynuuje.

AI napędza polaryzację i nieufność

Prof. Jemielniak wskazuje, że niekontrolowany napływ materiałów generowanych przez AI grozi zalewem dezinformacji oraz manipulacjami. – Społeczeństwo może być narażone na celowe lub przypadkowe wprowadzanie w błąd, co może wpływać na opinię publiczną, decyzje polityczne czy zachowania konsumenckie. Kolejne ryzyko wiąże się z utratą zaufania. Jeśli ludzie nie będą w stanie odróżnić prawdziwych informacji od fałszywych, może to prowadzić do ogólnej nieufności wobec mediów, instytucji, a nawet nauki. Na tym nie koniec: kolejnym zagrożeniem jest polaryzacja. Dezinformacja może pogłębiać bowiem podziały społeczne, prowadząc do konfliktów i utrudniając dialog – wylicza ekspert.

Negatywnych konsekwencji tego zjawiska jest jednak więcej. Według Dariusza Jemielniaka fałszywe informacje mogą przenikać do systemów edukacyjnych, wpływając negatywnie na proces uczenia się i rozwój wiedzy, z kolei manipulacja informacją na dużą skalę może stanowić zagrożenie dla procesów demokratycznych oraz bezpieczeństwa narodowego.

Czytaj więcej

Gubernator Kalifornii zablokował przełomowy projekt ustawy o bezpieczeństwie AI

Lekiem nie będzie jednak ograniczanie czy zakazywanie systemów AI. Julia Krysztofiak-Szopa zastrzega, by nie demonizować AI, bo podobny strach na początku lat 2000. zapanował, gdy pojawił się internet. – Nauczyciele ostrzegali wówczas, że co to może być za wiedza w sieci, że uczyć można się tylko z książek. Jednakże pewne mechanizmy kontroli w tym przypadku się wykształciły, dziś Wikipedia jest w miarę rozsądnym źródłem wiedzy, a sami nauczyciele chętnie sięgają po narzędzia online – tłumaczy.

Kto odpowie za fałszywe treści?

Eksperci zgodnie twierdzą, że potrzeba edukacji na temat AI i promowania umiejętności krytycznego myślenia. Ale przeciwdziałanie temu zjawisku wymaga wielopłaszczyznowego podejścia.

– Twórcy modeli AI powinni implementować mechanizmy sprawdzające jakość i prawdziwość danych wykorzystywanych do trenowania. Obejmuje to usuwanie treści potencjalnie fałszywych lub wprowadzających w błąd. Potrzebne są inwestycje w technologie pozwalające na identyfikację i oznaczanie treści tworzonych przez AI, ale także regulacje i standardy etyczne. Współpraca między naukowcami, przemysłem a ustawodawcami może prowadzić do ustanowienia norm i przepisów regulujących tworzenie i dystrybucję treści generowanych przez AI – twierdzi prof. Jemielniak.

Niezbędny jest też bat. – Serwisy udostępniające treści powinny aktywnie monitorować i moderować zawartość, aby ograniczyć rozprzestrzenianie się dezinformacji. Muszą być odpowiedzialne finansowo, żeby realnie się zaangażować – przekonuje nasz rozmówca.

Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.

– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Hybrydy
Skoda Kodiaq. Co musisz wiedzieć o technologii PHEV?
Cykl Partnerski
Przejście do nowej energetyki musi być bezpieczne
Czym jeździć
Skoda Kodiaq. Mikropodróże w maxisamochodzie
Biznes
Polska firma zbrojeniowa sprzeda Korei Południowej tysiące dronów kamikadze
Biznes
Brakuje odwagi na zbrojeniówkę, czyli politycy umywają ręce
Biznes
Wystrzelił prywatny biznes obronny. Kto najlepiej na tym zarabia
Biznes
Kang Goo-young, Korea Aerospace Industries: Szkolenie na samolotach FA-50 tańsze niż na F-16