Wszyscy chyba czujemy, że mowa nienawiści i fałszywe informacje stały się zmorą całego internetu, a w szczególności portali społecznościowych. Mark Zuckerberg obiecał jakiś czas temu, że wykorzystując możliwości sztucznej inteligencji, Facebook poradzi sobie niebawem z tym problemem. Czas chyba ogłosić porażkę tego planu. Przytoczę tylko dwa przykłady z tysięcy zdarzeń uwidocznionych na tym portalu, dokumentujące owo niepowodzenie. Dwaj muzułmanie napadają w Wiedniu na młodą Austriaczkę i biją ją do nieprzytomności. Nagrywany przez bandytów film umieszczony został przez nich samych (!) na Facebooku, skąd w wyniku interwencji władz zdjęty został dopiero po paru dniach. W międzyczasie paru osobników o podobnie haniebnych upodobaniach do gwałtu i przemocy zademonstrowało na portalu swoje poparcie dla agresorów, a wielu innych oburzonych sprawą zachęcało czytelników do samosądu wobec przestępców, nie kryjąc ich zidentyfikowanych przez znajomych danych personalnych. Sprawą zajęła się w końcu policja, doprowadzając do ujęcia i skazania bandytów. Z kolei w Tajlandii niezrównoważony psychicznie mężczyzna zabił swoje małe dziecko i umieścił na Facebooku dwa filmy dokumentujące tę zbrodnię. Portal usunął filmy dopiero po 24 godzinach.
Algorytmy zawiodły
Oba wydarzenia miały miejsce w kwietniu. W maju Mark Zuckerberg ogłosił zmianę strategii firmy. Polegać ma ona na zatrudnieniu aż 3 tys. dodatkowych pracowników (aktualnie Facebook zatrudnia w sumie około 17 tys. osób) mających za zadanie reagować na wszelkie sygnały o naruszeniu dobrych obyczajów we wpisach na portalu.
Na powyższą decyzję istotny wpływ miały zapewne żądania władz różnych państw, najdobitniej artykułowane w Niemczech, natychmiastowego usuwania z portalu prawnie i etycznie przestępczych treści pod groźbą bardzo dotkliwych kar. Niezależnie jednak od tego zademonstrowana tym krokiem troska o reputację firmy w obliczu narastającego problemu uznana została za unikatową w świecie współczesnych mediów; liczba dodatkowo zatrudnionych osób zrobiła na wszystkich duże wrażenie. Ciekawe w całej sprawie jest jednak jeszcze coś innego.
Dotychczas uważano, że postępy w zakresie sztucznej inteligencji pozwolą na zautomatyzowanie procesu kontroli zamieszczanych na Facebooku tekstów i, w szczególności, skuteczne reagowanie na etyczne wykroczenia. Doświadczenia uzyskane w trakcie licznych testów prowadzonych na portalu przez sześć lat wykazały jednak nieskuteczność tego podejścia. To fatalna wiadomość, bo dynamika obecnych wydarzeń na świecie wygenerowała problemy dotyczące zamieszczanych w internecie treści o nieprzewidywalnej jeszcze niedawno wadze.
Dramat uchodźców z krajów arabskich i kontrowersje wokół nich zwielokrotniły brutalną ekstremalność facebookowych wpisów. Ze względu na rolę Niemiec w sprawie procesu imigracji szczególnie ucierpiała niemieckojęzyczna część portalu. Świadomi olbrzymiej opiniotwórczej roli Facebooka szefowie firmy w obliczu zbliżających się wyborów w Niemczech zdecydowali się zatrudnić w tym kraju do końca roku dodatkowo jeszcze 700 pracowników, zlecając całą operację firmie należącej do koncernu medialnego Bartelsmann. Na razie nie sposób ocenić skuteczności podjętych kroków, nie ma bowiem żadnych informacji o podejmowanych działaniach przez tworzone w ten sposób armie kontrolerów sieci.