AI dla #MeToo: Algorytmy wykryją trolli online

Naukowcy z Caltech udowodnili, że algorytmy uczenia się maszynowego mogą monitorować rozmowy w mediach społecznościowych w miarę ich rozwoju, co może pewnego dnia doprowadzić do skutecznego i zautomatyzowanego sposobu zauważania sieciowego trollingu.

Aktualizacja: 09.01.2020 14:50 Publikacja: 09.01.2020 14:45

AI dla #MeToo: Algorytmy wykryją trolli online

Foto: Shutterstock

Zapobieganie molestowaniu online wymaga szybkiego wykrywania obraźliwych, nękających i negatywnych postów w mediach społecznościowych, co z kolei wymaga monitorowania interakcji online. Obecne metody uzyskiwania takich danych z mediów społecznościowych są albo w pełni zautomatyzowane i nie dają się zinterpretować, albo opierają się na statycznym zestawie słów kluczowych, które mogą szybko stać się nieaktualne. Według naukowców żadna z tych metod nie jest skuteczna.

Anima Anandkumar, prowadząca laboratorium sztucznej inteligencji (AI) i Michael Alvarez, profesor nauk politycznych, przedstawili na konferencji na temat systemów przetwarzania informacji neuronowych w Vancouver w Kanadzie rozwiązanie tego problemu.

Poszukiwanie słów kluczowych jest niewystarczające z powodu szybkości, z jaką rozwijają się rozmowy online. Pojawiają się nowe terminy, a stare zmieniają znaczenie. Słowo kluczowe, które było używane jednego dnia, może mieć już zupełnie inne, sarkastyczne znaczenie następnego.

Zespół użył modelu GloVe (Global Vectors for Word Representation), aby odkryć nowe i istotne słowa kluczowe. GloVe reprezentuje słowa w przestrzeni wektorowej, gdzie „odległość” pomiędzy dwoma słowami jest miarą ich językowego lub semantycznego podobieństwa.

Wystarczy wziąć jedno słowo kluczowe, a GloVe może znaleźć inne, które są ściśle z nim związane. Dla przykładu użyto do wyszukiwania na Twitterze hashtagu „#MeToo”. Algorytm znalazł powiązania, takie jak „#SupportSurvivors”, „#ImWithHer” i „#NotSilent”. Takie podejście daje badaczom dynamiczny i ciągle zmieniający się zestaw słów kluczowych do wyszukiwania. Ale nie wystarczy wiedzieć tylko, czy dana rozmowa jest związana z interesującym tematem; liczy się kontekst.

GloVe potrafi pokazać stopień w jakim słowa kluczowe są ze sobą powiązane, dostarczając informacji o tym, jak są one wykorzystywane. Na przykład, na internetowym forum Reddit poświęconym mizoginizmowi, słowo „kobieta” zostało użyte w ścisłym związku ze słowami „seksualny”, „negatywny” i „stosunek”. W postach na Twitterze na temat ruchu #MeToo, słowo „kobieta” częściej kojarzyło się z terminami „firmy”, „pożądanie”, oraz „ofiary”.

Projekt ten pokazuje, że w zasięgu naszej ręki są narzędzia, które pozwolą na wykluczenie molestowania z platform mediów społecznościowych.

- Miejmy nadzieję, że narzędzia, które teraz rozwijamy, pomogą w przyszłości walczyć z wszelkimi rodzajami nękania - mówi Anima Anandkumar.

Nowe technologie
Podcast „Rzecz w tym”: Czy jesteśmy skazani na bipolarny świat technologiczny?
Nowe technologie
Chińska rewolucja w sztucznej inteligencji. Czy Ameryka traci przewagę?
Materiał Promocyjny
Kod Innowacji - ruszył konkurs dla firm stawiających na nowe technologie w komunikacji z konsumentami
Materiał Promocyjny
Polska na czele rewolucji technologii kwantowych
Nowe technologie
Niewykrywalny bombowiec strategiczny Sił Powietrznych USA odbył pierwszy lot