W rozmowie z Polsat News doradca prezydenta RP został zapytany, co jest większym zagrożeniem dla ludzkości - Władimir Putin, czy sztuczna inteligencja. - Jeśli byśmy jako kryterium odpowiedzi potraktowali kwestię tzw. egzystencjalnego zagrożenia dla ludzkości, czyli szansy na likwidację ludzkości, to przy najbardziej czarnym scenariuszu rozwoju tej wojny (Rosji z Ukrainą - red.), tzn. że Władimir Putin sięga po broń nuklearną i następuje pełnowymiarowa wymiana ciosów, nawet dołączyłyby się ze swoim potencjałem atomowym do tego Chiny, to ludzkość jako całość nie będzie zniszczona. Cywilizacja będzie załamana, ale przeżyją na pewno setki milionów ludzi, którzy wiedzą, na czym polega cywilizacja naukowo-techniczna, jak trzeba budować instytucje obrony praw człowieka, na czym polega demokracja. Więc cywilizacja z potencjałem odbudowy przetrwa - odparł Andrzej Zybertowicz.
- Broń nuklearna nie ma potencjału wymazania ludzkości z powierzchni ziemi. Załamie naszą cywilizację, cofnie ją w rozwoju, ale ludzkość przetrwa. Natomiast sztuczna inteligencja, jeśli nastąpi tak zwana eksplozja superinteligencji (...) to pojawią się procesy kompletnego przejęcia kontroli nad kluczowymi zasobami, na przykład energetycznymi na Ziemi przez kogoś innego, kto będzie od nas niezależny - zwrócił uwagę profesor i obrazowo porównał sytuację. - Czy jeśli budujemy wielką estakadę nad bagnami, to jakimś gniazdem pszczół się zajmujemy? Nie, nie chcemy pszczołom czy osom zrobić żadnej krzywdy? One są poniżej rachunku naszej kalkulacji. Tam, gdzie możemy, będziemy dbali o środowisko, ale tylko w granicach rozsądku - tłumaczył.
Czytaj więcej
System AI nie musi być samouczący, nie musi być świadomy, nie musi być superinteligentny, aby był superniebezpieczny. Wystarczy, że na jakimś krytycznie ważnym polu będzie miał zdolności, za którymi przez jakiś czas nie nadążymy. Że niechcący wprowadzi nas w błąd - mówi Andrzej Zybertowicz, socjolog.
Zdaniem Zybertowicza „sztuczna inteligencja może nie mieć świadomości, może nie mieć żadnych złych intencji, może nie mieć żadnego interesu, żeby ludzkość zlikwidować”. - Może chcieć realizować jakieś swoje cele, które mogą być poza naszą wyobraźnią zupełnie i przy okazji potraktować tak jak budowniczy autostrad traktują mrowiska. Czyli przy okazji zniszczyć - ocenił.
Dopytywany, czy jego wizja nie jest przesadzona, autor książki „Cyber kontra real. Cywilizacja w techno-pułapce” zauważył, że „wojna jądrowa też jest tylko możliwością”. - Ludzie związani z branżą sztucznej inteligencji mówią, że korzyści, jakie ona przyniesie, są prawie pewne, a ryzyka są czysto spekulatywne. Ja właśnie skończyłem tekst, w którym twierdzę, że jest odwrotnie: ryzyka i zagrożenia są prawie pewne, a korzyści są spekulatywne - powiedział.