Jak działa technologia egzekwowania przestrzegania zasad
ZAKTUALIZOWANO 12 LIS 2024
Budowanie modeli i tworzenie prognoz
Proces ten zaczyna się od naszych zespołów sztucznej inteligencji. Tworzą one modele uczenia maszynowego, które mogą wykonywać zadania, takie jak rozpoznawanie tego, co znajduje się na zdjęciu, lub rozumienie tekstu. Następnie nasze zespoły ds. integralności – odpowiedzialne za skalowanie i wykrywania przestrzegania naszych zasad – wykorzystują te modele do tworzenia bardziej szczegółowych modeli określających prognozy w zakresie osób i treści. Dzięki takim prognozom jest nam łatwiej egzekwować przestrzeganie naszych zasad.
Na przykład model sztucznej inteligencji przewiduje, czy dany fragment treści to mowa nienawiści lub treść drastyczna. Odrębny system – nasza technologia egzekwowania przestrzegania zasad – określa, czy należy podjąć działanie, np. usunięcie, ograniczenie widoczności lub przesłanie treści do zespołu weryfikacyjnego do dalszej weryfikacji.
Uczenie przez powtarzanie, zweryfikowane przez człowieka
Gdy za pierwszym razem tworzymy technologię egzekwowania przestrzegania zasad dotyczących treści, szkolimy ją w poszukiwaniu określonych sygnałów. Niektóre technologie na przykład wyszukują nagości na zdjęciach, a inne uczą się rozumieć tekst. Na początku nowy rodzaj technologii może mieć niski próg zaufania co do tego, czy dana treść narusza nasze zasady.
Zespoły weryfikacyjne następnie podejmują ostateczną decyzję i nasza technologia może się uczyć z każdej ludzkiej decyzji. Z czasem – na podstawie tysięcy ludzkich decyzji – technologia staje się dokładniejsza.
Nasze zasady również z czasem rozwijają się, aby nadążać za zmianami w naszych produktach, normach społecznych i języku. W związku z tym zarówno szkolenie naszej technologii, jak i zespołów weryfikacyjnych jest procesem stopniowym i powtarzalnym.
Wykrywanie uporczywych naruszeń zasadTechnologia sprawdza się bardzo dobrze w ciągłym wykrywaniu takich samych treści, w razie potrzeby miliony razy. Nasza technologia podejmie działanie w odniesieniu do nowego fragmentu treści, jeżeli będzie identyczny lub bardzo podobny do innego fragmentu treści naruszających zasady. Jest to szczególnie pomocne przy wirusowych kampaniach dezinformacyjnych, memach i innych treściach, które mogą się niezwykle szybko rozprzestrzeniać.
Dokonywanie subtelnych rozróżnień
Technologia może na okrągło znajdować i usuwać takie same treści. Ale nauczenie maszyny rozumienia niuansów w zakresie doboru słownictwa lub tego, jak drobne zmiany mogą zmienić kontekst, to nie lada wyzwanie.
Pierwsze zdjęcie to oryginalny fragment treści wprowadzających w błąd, zawierający nieprawdziwe informacje na temat zdrowia publicznego.
Drugie zdjęcie to zrzut ekranu pierwszego zdjęcia, tym razem z komputerowym paskiem menu na górze.
Wreszcie ostatnie zdjęcie wygląda bardzo podobnie do pierwszego i drugiego, ale ma dwie niewielkie zmiany w zakresie słownictwa, dzięki którym nagłówek jest dokładny i nie jest już informacją nieprawdziwą.
Dla człowieka jest to dość łatwe do zrozumienia, ale dla technologii może stanowić problem. Zachodzi ryzyko zbyt wielu błędów z jednej lub z drugiej strony. Zbyt agresywna technologia może usuwać miliony postów nienaruszających zasad. Technologia niedostatecznie agresywna zakwalifikuje zrzut ekranu z paskiem menu jako różniący się od oryginału i nie podejmie działania w stosunku do treści.
Rozwiązanie tego problemu zajmuje nam dużo czasu. W ciągu kilku ostatnich lat poczyniliśmy kilka inwestycji w celu usprawnienia działania naszej technologii w zakresie wychwytywania subtelnych różnic w treści. W miarę uzyskiwania nowych wiadomości precyzja technologii zwiększa się każdego dnia.