So arbeiten Review-Teams
AKTUALISIERT 12.11.2024
Meta wird häufig gefragt, wie unsere Inhaltsprüfung funktioniert, wie wir unsere Richtlinien durchsetzen und ob unsere Review-Teams die Richtlinien global anwenden. Nachfolgend wird erläutert, wie unsere Review-Teams vorgehen und wie sie dabei unsere Technologie einsetzen.
Inhaltsprüfung: wann wir Technologie einsetzen und wann der Review durch eine*n Mitarbeiter*in erfolgt
Meta verfügt über Systeme zur Durchsetzung von Content-Richtlinien, die entsprechende Maßnahmen einleiten, wenn etwas gegen die Gemeinschaftsstandards verstößt. Beispielsweise nutzen wir künstliche Intelligenz und maschinelles Lernen, um große Mengen von unzulässigen Inhalten zu erkennen und zu entfernen. Das geschieht häufig, bevor irgendjemand sie gesehen hat.
Für die Fälle, in denen unserer Technologie etwas entgeht oder mehr Informationen erforderlich sind, kommen weltweit tausende Prüfer*innen zum Einsatz, um unsere Gemeinschaftsstandards durchzusetzen.
Potenzielle Verstöße gegen Content-Richtlinien werden an Review-Teams weitergeleitet. Dabei wird jedem*jeder Prüfer*in eine Liste mit Beiträgen zugewiesen, die einzeln zu bewerten sind. Manchmal ist bei dieser Bewertung lediglich festzustellen, ob der Inhalt gegen unsere Richtlinien verstößt, etwa ein Bild mit einer Nacktdarstellung von Erwachsenen, wenn unsere Technologie dies nicht erkannt hat.
In anderen Fällen kommt es auf den Kontext an. Beispielsweise kann unsere Technologie manchmal nicht zweifelsfrei feststellen, ob ein Beitrag Mobbing darstellt. Dies ist ein Richtlinienbereich, der zusätzlichen Kontext und eine genaue Differenzierung erfordert, da er häufig die Art persönlicher Beziehungen widerspiegelt. In diesem Fall senden wir den Beitrag an Review-Teams, die über die erforderliche Sachkenntnis und sprachliche Kompetenz für eine weitere Bewertung verfügen. Falls nötig, können Prüfer*innen den Fall an Expert*innen der Global Operations- oder Content-Richtlinien-Teams weiterleiten.
Gegebenenfalls stellen wir den Prüfer*innen auch zusätzliche Informationen aus den gemeldeten Inhalten zur Verfügung. Beispiel: Wörter, die seit langem als rassistische Beleidigung verwendet werden, können von einer Person als Hassrede gebraucht, jedoch in einem anderen Kontext von einer anderen Person in einer selbstermächtigenden Funktion eingesetzt werden. In manchen Fällen stellen wir zusätzlichen Kontext zu solchen Wörtern bereit. Dadurch können die Prüfer*innen unsere Richtlinien besser anwenden und entscheiden, ob der Beitrag bleiben kann oder gelöscht wird.