Ogłoszenie przez Marka Zuckerberga nowych zasad moderacji treści na Facebooku ma oczywisty kontekst polityczny. Założyciel FB bowiem zapowiedział likwidację mechanizmów, które już jakiś czas temu stały się głównym wrogiem dla alt-prawicy – nie tylko amerykańskiej. Dla niej, podobnie jak dla samego Trumpa, moderacja i fact-checking są narzędziem cenzury. Zresztą sam Zuckerberg, ogłaszając zmiany, uznał, że moderacja stała się jej elementem i czas przywrócić na FB wolność słowa. Tyle tylko, że bardzo specyficznie rozumianą.
Jakie konsekwencje będzie miała zmiana moderacji treści na Facebooku
Facebook ogłosił, że będzie stosował zasady zaczerpnięte z serwisu X, czyli dawnego Twittera, kupionego i radykalnie zmienionego przez bliskiego Trumpowi Elona Muska. Na X funkcjonuje bowiem mechanizm tzw. uwag społeczności. Jeśli ktoś uważa, że jakaś informacja jest fałszywa, może zamieścić uzupełnienie, kontekst, sprostowanie. Uwagi są wyświetlane przy danym wpisie, jeśli inni użytkownicy, biorąc udział w głosowaniu, uznają je za przydatne. Zamiast organizacji fact-checkingowych, które sprawdzają, czy rozprzestrzeniające się w serwisie informacje nie są przypadkiem fałszywe, o tym, czy coś jest prawdą, czy fałszem, będzie – w pewnym uproszczeniu – decydowało głosowanie użytkowników. Obserwując zaś, jak działają w serwisach społecznościowych sondy i głosowania, trzeba do tego podejść z wielką ostrożnością.
Czytaj więcej
Platformy społecznościowe, czyli jak zostać uznanym jednocześnie za lewaka, prawicowca i symetrystę.
Musk, uważając się za obrońcę wolności słowa, wymontował z X bezpieczniki, sprawiając, że platforma, która do tej pory była źródłem informacji, coraz częściej służy organizowaniu kampanii politycznych, hejtu i dezinformacji. Przy odpowiednim rozumieniu mechanizmów i algorytmów oraz mając wpływ na wystarczającą liczbę realnych czy fejkowych użytkowników, można wygenerować dowolny trend, sprawiając wrażenie, że coś nieistotnego urasta do wielkiej rangi, albo na odwrót.
Dlaczego gest Marka Zuckerberga wobec Donalda Trumpa jest racjonalny
Warto przypomnieć, że fact-checking i moderację Facebook wprowadził po wyborach w 2016 roku, gdy okazało się, że różni zewnętrzni aktorzy używali serwisu do manipulowania emocjami społecznymi. Wykorzystano mechanizmy algorytmicznego porządkowania treści do szerzenia informacji wywołujących silne emocje, oburzenie, gniew, fake newsy czy kwestie silnie polaryzujące. Jeśli Zuckerberg uważa, że moderacja działa źle, może ją poprawić. Ale on po prostu wyłącza mechanizm, bo alt-prawica uważała moderację za zagrożenie. Wszak na tej podstawie zamknięto konta powiązane z siejącym spiskowe teorie ruchem QAnon.