Jak Meta priorytetyzuje weryfikację treści

ZAKTUALIZOWANO 12 LIS 2024
Technologie firmy Meta wykrywają i usuwają większość treści naruszających zasady, zanim ktokolwiek je zgłosi. Gdy ktoś publikuje post na Facebooku, Instagramie, w Messengerze lub w Threads, nasze technologie sprawdzają, czy takie treści nie są sprzeczne ze Standardami społeczności. W większości przypadków identyfikacja to prosta sprawa. Post jednoznacznie narusza zasady albo nie.
W pozostałych przypadkach identyfikacja jest trudniejsza. Być może wrażenie wywoływane przez post jest niejasne, jego język jest szczególnie złożony lub zawarte w nim obrazy są zbyt uzależnione od kontekstu. W takich przypadkach dalszą weryfikację prowadzą nasi pracownicy.
Ustalanie kolejności czynników do weryfikacji przez człowieka
Określając, które treści powinny w pierwszej kolejności zweryfikować nasze osobowe zespoły weryfikacyjne, uwzględniamy 3 najważniejsze czynniki:
WAGA
Jakie jest prawdopodobieństwo, że treści spowodują szkodę, zarówno w Internecie, jak i poza nim?
DYSTRYBUCJA WIRUSOWA
Jak szybko udostępniane są dane treści?
PRAWDOPODOBIEŃSTWO NARUSZENIA ZASAD
Na ile prawdopodobne jest to, że dane treści faktycznie naruszają nasze zasady?
Chcemy zapobiegać szkodom na tyle, na ile to możliwe, zatem nasze systemy weryfikacyjne wykorzystują technologię do tego, by w pierwszej kolejności weryfikować treści o dużym potencjale wywołania szkody w trybie offline oraz treści wirusowe, które szybko się rozprzestrzeniają.
Osobowe zespoły weryfikacyjne umożliwiają usprawnienie naszej technologii
Zespoły takie wykorzystują wiedzę o określonych obszarach zasad i językach do podejmowania trudnych i często niestandardowych decyzji. Za każdym razem, gdy weryfikatorzy podejmują decyzję, wykorzystujemy te informacje do przeszkolenia naszej technologii. Z czasem, w wyniku milionów decyzji, nasza technologia się ulepsza, pozwalając nam na usuwanie treści bardziej naruszających zasady.
Pomoc dla weryfikatorów w podejmowaniu właściwych decyzji
Technologia pomaga osobowym zespołom weryfikacyjnym w jak najlepszym wykonywaniu pracy
Podobnie do wielu modeli uczenia maszynowego nasza technologia ulepsza się w miarę upływu czasu i pozyskiwania coraz większej liczby przykładów treści naruszających zasady. Oznacza to, że osobowe zespoły weryfikacyjne mogą koncentrować się bardziej na treściach istotnych, wirusowych, zróżnicowanych, nowatorskich i złożonych – czyli właśnie na tych obszarach, w których ludzie podejmują lepsze decyzje niż technologia.
Często zadawane pytania dotyczące ustalania priorytetów w zakresie weryfikacji treści
Wcześniej osobowe zespoły weryfikacyjne przeznaczały zdecydowaną większość czasu na weryfikację treści zgłaszanych przez użytkowników. Oznaczało to, że często zbyt dużo czasu przeznaczały na treści, które nie stanowiły poważnego lub wyraźnego naruszenia zasad, a niedostatecznie dużo czasu na treści najpoważniejsze, które mogłyby wyrządzić najwięcej szkód. Oznaczało to też, że decyzje podejmowane przez człowieka nie były dość przydatne w zakresie ulepszania naszej technologii egzekwowania przestrzegania zasad.
Nasze obecne podejście do ustalania priorytetów odnosi się do tych kwestii, pozwalając nam na weryfikację potencjalnie najbardziej szkodliwych treści w pierwszej kolejności oraz na szybsze ulepszanie naszej technologii.
Niekoniecznie. W weryfikacji zgłoszeń od użytkowników rolę odgrywają zarówno zespoły weryfikacyjne złożone z ludzi, jak i technologia. Gdy technologia może przeanalizować dany fragment treści, automatycznie podejmie lub nie podejmie działania w stosunku do danego fragmentu treści.
W ramach rozstrzygania wątpliwości dotyczących uczciwości i inkluzywności związanych ze stosowaniem sztucznej inteligencji w technologiach firmy Meta powołaliśmy zespół ds. odpowiedzialnego wykorzystania sztucznej inteligencji – specjalną, wszechstronną grupę etyków, naukowców w dziedzinie socjologii i politologii, ekspertów ds. zasad oraz badaczy i inżynierów ds. zastosowania sztucznej inteligencji. Ogólnym celem zespołu jest opracowywanie wytycznych, narzędzi i procesów w ramach rozstrzygania kwestii dotyczących odpowiedzialności w zakresie sztucznej inteligencji oraz pomoc w zapewnianiu powszechnej dostępności zasobów systemowych na platformach Meta.