Zapobieganie molestowaniu online wymaga szybkiego wykrywania obraźliwych, nękających i negatywnych postów w mediach społecznościowych, co z kolei wymaga monitorowania interakcji online. Obecne metody uzyskiwania takich danych z mediów społecznościowych są albo w pełni zautomatyzowane i nie dają się zinterpretować, albo opierają się na statycznym zestawie słów kluczowych, które mogą szybko stać się nieaktualne. Według naukowców żadna z tych metod nie jest skuteczna.
Anima Anandkumar, prowadząca laboratorium sztucznej inteligencji (AI) i Michael Alvarez, profesor nauk politycznych, przedstawili na konferencji na temat systemów przetwarzania informacji neuronowych w Vancouver w Kanadzie rozwiązanie tego problemu.
Poszukiwanie słów kluczowych jest niewystarczające z powodu szybkości, z jaką rozwijają się rozmowy online. Pojawiają się nowe terminy, a stare zmieniają znaczenie. Słowo kluczowe, które było używane jednego dnia, może mieć już zupełnie inne, sarkastyczne znaczenie następnego.
Zespół użył modelu GloVe (Global Vectors for Word Representation), aby odkryć nowe i istotne słowa kluczowe. GloVe reprezentuje słowa w przestrzeni wektorowej, gdzie „odległość” pomiędzy dwoma słowami jest miarą ich językowego lub semantycznego podobieństwa.
Wystarczy wziąć jedno słowo kluczowe, a GloVe może znaleźć inne, które są ściśle z nim związane. Dla przykładu użyto do wyszukiwania na Twitterze hashtagu „#MeToo”. Algorytm znalazł powiązania, takie jak „#SupportSurvivors”, „#ImWithHer” i „#NotSilent”. Takie podejście daje badaczom dynamiczny i ciągle zmieniający się zestaw słów kluczowych do wyszukiwania. Ale nie wystarczy wiedzieć tylko, czy dana rozmowa jest związana z interesującym tematem; liczy się kontekst.