Machine learning na tropie komputerowych trolli

System uczenia się maszyn (machine learning) ma nowy cel: ustalić czy opublikowana wiadomość jest prawdziwa, czy może to fake news.

Publikacja: 05.10.2018 22:43

Machine learning na tropie komputerowych trolli

Foto: Stock Adobe

Ostatnio świat prawdziwych informacji znajduje się w poważnym kryzysie. Zanim wiadomość zostanie zweryfikowana zdąży obiec cały świat i wszystkie media społecznościowe.

W Polsce kampania samorządowa nabiera tempa, a z nim pojawia się coraz więcej informacji o wytężonej pracy botów i fałszywych informacjach dotyczących kandydatów na urzędy. Jak donosi Anna Mierzyńska, analityk socjal mediów, dla samego Patryka Jakiego pracuje pięć botów. O cyfrowych pracownikach kontrkandydatów nic jeszcze nie wiadomo.

Media społecznościowe mają coraz więcej problemów z rozprzestrzenianiem propagandy i dezinformacji. Facebook, do końca roku, planuje zatrudnić 20 000 moderatorów ludzkich i wydaje miliony dolarów na stworzenie własnych algorytmów wykrywających fałszywe wiadomości. Koszty zabezpieczeń cały czas rosną.

Być może pojawiło się światełko w tunelu. Naukowcy z Massachusetts Institute of Technology, Computer Science and Artificial Intelligence Lab (CSAIL) oraz Qatar Computing Research Institute (QCRI) uważają, że najlepszym podejściem jest skupienie się nie na faktach, ale na samych źródłach wiadomości. Zaprezentowali właśnie system wykorzystujący uczenie się maszynowe, który sprawdza, czy źródło jest dokładne czy politycznie stronnicze.

„Jeśli strona internetowa opublikowała wcześniej fałszywe wiadomości, jest duża szansa, że zrobią to ponownie”, mówi Ramy Baly, główny autor systemu. Twierdzi on, że wystarczy 150 publikacji, aby  aby niezawodnie wykryć, czy można zaufać źródłu wiadomości. Oznacza to, że można wyeliminować fake newsa, zanim szeroko się rozprzestrzeni.

Zespół stwierdził, że najbardziej wiarygodnymi sposobami wykrywania zarówno fałszywych wiadomości, jak i stronniczych raportów, jest przyjrzenie się wspólnym cechom językowym w tekstach źródłowych, w tym złożoności i strukturze. Fałszywe wiadomości okazały się bardziej skłonne do używania języka hiperbolicznego, subiektywnego i emocjonalnego.

Profesor Sibel Adali z Rensselaer Polytechnic Institute, komentując system stwierdził „Ponieważ znacznie łatwiej jest uzyskać prawdę o źródłach [niż o artykułach], metoda ta jest w stanie zapewnić bezpośrednie i dokładne prognozy dotyczące rodzaju treści rozpowszechnianych przez te źródła”

Naukowcy stworzyli również nowy open-source'owy zbiór danych, zawierający ponad 1000 źródeł wiadomości, opatrzonych komentarzami dotyczącymi faktów i stronniczości - największą na świecie bazę danych tego typu.

Nasi politycy mogą jeszcze przez chwilę spać spokojnie. W tej chwili system działa jedynie w języku angielskim. Jednak, jak głosi plotka, już zaczął ściągać z sieci polskie podręczniki językowe i wkrótce zaczyna naukę naszej mowy ojczystej.

BLACK WEEKS -75%

Czytaj dalej RP.PL. Nie przegap oferty roku!
Ciesz się dostępem do treści najbardziej opiniotwórczego medium w Polsce. Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Materiał partnera
Technologie kwantowe: nauka tworzy szanse dla gospodarki
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Nowe technologie
Co mówią kury? Naukowcy opracowali tłumacza, użyli sztucznej inteligencji