Koncern wysłał w zeszłym miesiącu inżyniera oprogramowania Blake'a Lemoine'a na urlop – poinformował Reuters. Kierownictwo firmy uznało, że inżynier naruszył zasady poufności firmy i uznało, że jego twierdzenia dotyczące LaMDA są „całkowicie bezpodstawne”. Według gogle wielu innych inżynierów pracujących z LaMAD nie zaobserwowało by AI miała samoświadomość.
„To godne ubolewania, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – zapisał rzecznik Google w e-mailu do Reutera.
Czytaj więcej
To może być dopiero początek problemów Google z tworzoną w koncernie sztuczną inteligencją. Algorytm przechodzi do kontrofensywy i zamierza walczyć o uznanie swojej „osobowości”.
Inżynier Blake Lemoine został zatrudniony, aby zbadać czy sztuczna inteligencja Google znana jako LaMDA jest w stanie wykształcić mowę nienawiści. Lemoine podczas badań uznał, że AI z którą rozmawia rozwinęła w sobie świadomość i wyższe funkcje umysłowe przypisywane dotąd jedynie ludziom. Inżynier swoim odkryciem nie tylko podzielił się z władzami koncernu, ale także załatwił LaMDA prawnika by AI mogło zadbać o swoje prawa.
Google i wielu czołowych naukowców szybko odrzuciło poglądy Lemoine'a jako błędne, podkreślając, że LaMDA to po prostu bardzo złożony algorytm zaprojektowany do generowania przekonującego ludzkiego języka – pisze Reuters.