So erleichtert Technologie die Priorisierung von Überprüfungen
AKTUALISIERT 19.01.2022
Unabhängig davon, ob potenziell unzulässige Inhalte von Nutzer*innen gemeldet oder von der Meta-Technologie erkannt werden – durch Automatisierung können wir die Inhalte schnell an Prüfer*innen weiterleiten, die über die richtige fachliche und sprachliche Kompetenz verfügen.
Anschließend setzen wir Technologie ein, um Inhalte einzuordnen und zu priorisieren, damit sich unsere Review-Teams zuerst um die wichtigsten Fälle kümmern können. Dazu gehören Inhalte, die Schaden abseits des Internets anrichten könnten, etwa Posts im Zusammenhang mit Terrorismus und Suizid, sowie virale Inhalte, die gegen unsere Richtlinien verstoßen und eine große Reichweite haben könnten.
Wir optimieren unsere Technologie und Prozesse kontinuierlich, damit gewährleistet ist, dass die Review-Teams mehr Zeit in die richtigen Entscheidungen investieren.
Warum Review-Teams für die Durchsetzung von Content-Richtlinien wichtig sind
Damit in unserer Community möglichst wenig Schaden entsteht, arbeiten unsere Technologie und die menschlichen Review-Teams stets zusammen. Hier sind einige Beispiele, wie unsere Prüfer*innen zusammen mit Technologie dazu beitragen, unser System für die Durchsetzung von Content-Richtlinien zu stärken.
Trainieren unserer Technologie
Wenn Prüfer*innen eine Entscheidung über einen Inhalt treffen, trainieren und optimieren sie zugleich unsere Technologie, sodass diese im Laufe der Zeit ähnliche Inhalte erkennen kann. Diese Feedbackschleife aus Mensch und Technologie trägt entscheidend dazu bei, dass unsere Systeme auf dem aktuellen Stand sind.
Verbessern unserer KI-Algorithmen
Bei der Überprüfung von unzulässigen Inhalten versehen die Review-Teams die entsprechende Richtlinie manuell mit einem Hinweis. Das bedeutet, dass sie die Richtlinie markieren, gegen die der Inhalt, das Konto oder das Verhalten verstößt. Mithilfe dieser wichtigen Kennzeichnungsdaten können wir die Qualität unserer KI-Algorithmen (Künstliche Intelligenz) verbessern, die proaktiv nach gefährlichen Inhalten suchen.
Schwierige Entscheidungen
In zwei Bereichen leistet unsere Technologie besonders gute Dienste: beim Erkennen wiederholter Verstöße sowie beim Identifizieren von offenkundig drastischen oder extremen Inhalten. Bei Inhalten, die sehr unterschiedlich interpretiert werden können, die komplex sind oder bei denen es sich um Grenzfälle handelt, treffen Prüfer*innen in der Regel bessere Entscheidungen als die Technologie.