Jak Meta priorytetyzuje weryfikację treści
ZAKTUALIZOWANO 12 LIS 2024
W pozostałych przypadkach identyfikacja jest trudniejsza. Być może wrażenie wywoływane przez post jest niejasne, jego język jest szczególnie złożony lub zawarte w nim obrazy są zbyt uzależnione od kontekstu. W takich przypadkach dalszą weryfikację prowadzą nasi pracownicy.
Ustalanie kolejności czynników do weryfikacji przez człowieka
Określając, które treści powinny w pierwszej kolejności zweryfikować nasze osobowe zespoły weryfikacyjne, uwzględniamy 3 najważniejsze czynniki:
WAGA
Jakie jest prawdopodobieństwo, że treści spowodują szkodę, zarówno w Internecie, jak i poza nim?
DYSTRYBUCJA WIRUSOWA
Jak szybko udostępniane są dane treści?
PRAWDOPODOBIEŃSTWO NARUSZENIA ZASAD
Na ile prawdopodobne jest to, że dane treści faktycznie naruszają nasze zasady?
Osobowe zespoły weryfikacyjne umożliwiają usprawnienie naszej technologii
Zespoły takie wykorzystują wiedzę o określonych obszarach zasad i językach do podejmowania trudnych i często niestandardowych decyzji. Za każdym razem, gdy weryfikatorzy podejmują decyzję, wykorzystujemy te informacje do przeszkolenia naszej technologii. Z czasem, w wyniku milionów decyzji, nasza technologia się ulepsza, pozwalając nam na usuwanie treści bardziej naruszających zasady.
Pomoc dla weryfikatorów w podejmowaniu właściwych decyzji
Technologia pomaga osobowym zespołom weryfikacyjnym w jak najlepszym wykonywaniu pracy
Podobnie do wielu modeli uczenia maszynowego nasza technologia ulepsza się w miarę upływu czasu i pozyskiwania coraz większej liczby przykładów treści naruszających zasady. Oznacza to, że osobowe zespoły weryfikacyjne mogą koncentrować się bardziej na treściach istotnych, wirusowych, zróżnicowanych, nowatorskich i złożonych – czyli właśnie na tych obszarach, w których ludzie podejmują lepsze decyzje niż technologia.
Często zadawane pytania dotyczące ustalania priorytetów w zakresie weryfikacji treści
Jak ustalanie priorytetów w zakresie egzekwowania zasad zmieniło się z czasem?
Wcześniej osobowe zespoły weryfikacyjne przeznaczały zdecydowaną większość czasu na weryfikację treści zgłaszanych przez użytkowników. Oznaczało to, że często zbyt dużo czasu przeznaczały na treści, które nie stanowiły poważnego lub wyraźnego naruszenia zasad, a niedostatecznie dużo czasu na treści najpoważniejsze, które mogłyby wyrządzić najwięcej szkód. Oznaczało to też, że decyzje podejmowane przez człowieka nie były dość przydatne w zakresie ulepszania naszej technologii egzekwowania przestrzegania zasad.
Nasze obecne podejście do ustalania priorytetów odnosi się do tych kwestii, pozwalając nam na weryfikację potencjalnie najbardziej szkodliwych treści w pierwszej kolejności oraz na szybsze ulepszanie naszej technologii.
Czy zespoły weryfikacyjne złożone z ludzi weryfikują każdy raport użytkownika?
Niekoniecznie. W weryfikacji zgłoszeń od użytkowników rolę odgrywają zarówno zespoły weryfikacyjne złożone z ludzi, jak i technologia. Gdy technologia może przeanalizować dany fragment treści, automatycznie podejmie lub nie podejmie działania w stosunku do danego fragmentu treści.
Jak zadbać o to, by decyzje ludzkie nie wprowadzały stronniczości do technologii?
W ramach rozstrzygania wątpliwości dotyczących uczciwości i inkluzywności związanych ze stosowaniem sztucznej inteligencji w technologiach firmy Meta powołaliśmy zespół ds. odpowiedzialnego wykorzystania sztucznej inteligencji – specjalną, wszechstronną grupę etyków, naukowców w dziedzinie socjologii i politologii, ekspertów ds. zasad oraz badaczy i inżynierów ds. zastosowania sztucznej inteligencji. Ogólnym celem zespołu jest opracowywanie wytycznych, narzędzi i procesów w ramach rozstrzygania kwestii dotyczących odpowiedzialności w zakresie sztucznej inteligencji oraz pomoc w zapewnianiu powszechnej dostępności zasobów systemowych na platformach Meta.