Wyzwanie w postaci wykrywania mowy nienawiści

ZAKTUALIZOWANO 19 STY 2022
Mowa nienawiści jest szczególnie trudna do wykrycia dla technologii i zespołów weryfikacyjnych. Frazeologizmy i niuanse różnią się zasadniczo w zależności od kultury, języka i regionu. Ponadto użytkownicy czasem posługują się słowami, które normalnie zostałyby uznane za mowę nienawiści, ale robią to w celu zwiększenia poziomu świadomości problemu lub kierują je pod własnym adresem w ramach próby przywrócenia określenia.
Są to wyzwania dotyczące jedynie wykrywania mowy nienawiści w tekście. Spora część mowy nienawiści, którą znajdujemy na Facebooku i na Instagramie, ma formę zdjęć i filmów. Na przykład autorzy memów posługują się łącznie tekstem i zdjęciami, aby zaatakować konkretną grupę osób. Jest to jeszcze większe wyzwanie dla technologii.
hate-speech-image
Tego typu treści stają się jeszcze bardziej skomplikowane, gdy autorzy próbują uniknąć wykrycia, zmieniając treści. Mogą na przykład celowo popełniać błędy ortograficzne, unikać określonych wyrażeń lub zmieniać zdjęcia i filmy.
Postęp w zakresie korzystania ze sztucznej inteligencji do wykrywania mowy nienawiści
W ciągu kilku ostatnich lat usprawniliśmy nasze narzędzia do wykrywania mowy nienawiści, zatem obecnie usuwamy dużo takich treści, zanim jeszcze zostaną zgłoszone, a w niektórych przypadkach, zanim jeszcze ktoś je zauważy.
Wykorzystujemy sztuczną inteligencję do wykrywania obrazów i tekstu, które są identyczne z treścią, którą już usunęliśmy jako mowę nienawiści. Nasza technologia przygląda się też reakcjom i komentarzom w celu oceny, jak podobna jest dana treść.
Techniki te pomagają naszej technologii dokładniej wykrywać mowę nienawiści, nawet gdy znaczenie nie jest oczywiste lub treść zostanie zmieniona w celu uniknięcia wykrycia.
Zachęcamy do zapoznania się ze szczegółową analizą na blogu Facebooka poświęconemu sztucznej inteligencji