Media pełne są rozważań o użyciu sztucznej inteligencji (AI) w propagandzie i niebezpieczeństwach z tym związanych dla przyszłości demokracji i polityki w ogóle. Wszelkie wybory i publiczne dyskusje wygrywać będzie nie ten, kto ma lepsze pomysły i rozwiązania, lecz ten, kto ma lepsze narzędzie sztucznej inteligencji służące do manipulacji mediami, zwłaszcza mediami społecznościowymi.
Teraz okazuje się, że nie tylko przyszłość jest w niebezpieczeństwie, ale także przeszłość. Digitalizacja świadectw historycznych sprawia, że – jak słusznie zauważają Jacob N. Shapiro i Chris Mattmann w artykule z „New York Timesa” z 29 stycznia – „Sztuczna inteligencja zagraża także przeszłości”. Dla AI żadnym problemem nie będzie wymiana artykułów w gazetach na całym świecie sprzed 100 lat, zmiana drzewa genealogicznego, aktów własności czy wyprodukowanie fałszywych świadectw filmowych, że World Trade Center zbombardowali sami Amerykanie, a Hiroszimę – powiedzmy – Filipińczycy. Autorzy postulują stworzenie systemu swego rodzaju cyfrowych znaków wodnych, które zaświadczałyby o prawdziwości przeszłych i przyszłych dokumentów opisujących rzeczywistość.
Czy jesteśmy na progu kultury masowej wytwarzanej przez AI?
Wiara w cyfrowe znaki wodne wydaje mi się naiwna, tak jak wiara w test Turinga. Niestety nie pamiętam, kto to powiedział, ale już dawno temu zauważono, że „ktoś dość inteligentny by przejść test Turinga, jest także wystarczająco inteligentny, by go sfałszować”. Słabością cyfrowych znaków wodnych będzie oczywiście fakt, że zwalczające się bloki polityczne nie zgodzą się nigdy na jeden uniwersalny znak wodny, a co więcej, nie jest pewne, czy umysł ludzki jest w stanie zaprojektować znak wodny nie do złamania przez AI. Zwłaszcza że łamanie cyfrowych znaków wodnych będzie ulubionym sportem nie tylko zwalczających się mocarstw, ale także zwalczających się partii, koncernów oraz policji i grup przestępczych. Prędzej czy później jeden z graczy poprosi swoje narzędzie AI o pomoc i znów się okaże, że potwierdzaniem autentyczności ludzkiego oglądu rzeczywistości nie zajmuje się człowiek, lecz maszyna.
Czytaj więcej
Jednym ze sposobów przeciwdziałania dezinformacji są kontakty społeczne. Jeśli zastąpi ją cyfrowa samotność, coraz trudniej będzie odróżnić prawdę od fałszu.
Dziś wydaje się to paradoksalne, ale nie można wykluczyć, że za jakiś czas będziemy wierzyć wyłącznie w te obrazy i wiadomości, których autentyczność potwierdzi szyfr zbyt skomplikowany, by złamał go człowiek, a więc szyfr wytworzony przez maszynę. I być może za czas jakiś każdej istotnej ludzkiej rozmowie towarzyszyć będzie urządzenie weryfikujące na bieżąco tezy rozmówcy, a brak takiego urządzenia w trakcie rozmowy świadczyć będzie o nieczystych zamiarach rozmówców.