Wyzwanie w postaci wykrywania mowy nienawiści
ZAKTUALIZOWANO 19 STY 2022
Mowa nienawiści jest szczególnie trudna do wykrycia dla technologii i zespołów weryfikacyjnych. Frazeologizmy i niuanse różnią się zasadniczo w zależności od kultury, języka i regionu. Ponadto użytkownicy czasem posługują się słowami, które normalnie zostałyby uznane za mowę nienawiści, ale robią to w celu zwiększenia poziomu świadomości problemu lub kierują je pod własnym adresem w ramach próby przywrócenia określenia.
Są to wyzwania dotyczące jedynie wykrywania mowy nienawiści w tekście. Spora część mowy nienawiści, którą znajdujemy na Facebooku i na Instagramie, ma formę zdjęć i filmów. Na przykład autorzy memów posługują się łącznie tekstem i zdjęciami, aby zaatakować konkretną grupę osób. Jest to jeszcze większe wyzwanie dla technologii.
Tego typu treści stają się jeszcze bardziej skomplikowane, gdy autorzy próbują uniknąć wykrycia, zmieniając treści. Mogą na przykład celowo popełniać błędy ortograficzne, unikać określonych wyrażeń lub zmieniać zdjęcia i filmy.
Postęp w zakresie korzystania ze sztucznej inteligencji do wykrywania mowy nienawiści
W ciągu kilku ostatnich lat usprawniliśmy nasze narzędzia do wykrywania mowy nienawiści, zatem obecnie usuwamy dużo takich treści, zanim jeszcze zostaną zgłoszone, a w niektórych przypadkach, zanim jeszcze ktoś je zauważy.
Wykorzystujemy sztuczną inteligencję do wykrywania obrazów i tekstu, które są identyczne z treścią, którą już usunęliśmy jako mowę nienawiści. Nasza technologia przygląda się też reakcjom i komentarzom w celu oceny, jak podobna jest dana treść.
Techniki te pomagają naszej technologii dokładniej wykrywać mowę nienawiści, nawet gdy znaczenie nie jest oczywiste lub treść zostanie zmieniona w celu uniknięcia wykrycia.
Zachęcamy do zapoznania się ze szczegółową analizą na blogu Facebooka poświęconemu sztucznej inteligencji