So priorisiert Meta Inhalte zur Überprüfung
AKTUALISIERT 12.11.2024
In anderen Fällen ist die Identifizierung schwieriger. Vielleicht ist die Stimmung des Beitrags unklar, die Formulierung ist besonders komplex oder die Bilder sind zu sehr vom Kontext abhängig. In diesen Fällen führen wir eine weitere Überprüfung durch Mitarbeitende durch.
Faktoren für die Überprüfung durch Mitarbeitende priorisieren
Bei der Entscheidung, welche Inhalte unsere manuellen Review-Teams zuerst überprüfen sollten, berücksichtigen wir drei Hauptfaktoren:
SCHWEREGRAD
Wie wahrscheinlich ist es, dass der Inhalt online oder offline zu Schaden führt?
VIRALITÄT
Wie schnell wird der Inhalt geteilt?
WAHRSCHEINLICHKEIT EINES VERSTOSSES
Wie wahrscheinlich ist es, dass der betreffende Inhalt tatsächlich gegen unsere Richtlinien verstößt?
Manuelle Review-Teams helfen, unsere Technologie zu verbessern
Unsere manuellen Review-Teams setzen ihr Fachwissen in bestimmten Bereichen und Sprachen ein, um schwierige Entscheidungen zu treffen, bei denen oft Nuancen entscheiden. Jedes Mal, wenn die Review-Teams eine Entscheidung treffen, verwenden wir diese Informationen, um unsere Technologie zu trainieren. Im Laufe der Zeit wird unsere Technologie durch Millionen von Entscheidungen immer besser, sodass wir mehr Inhalte, die gegen Richtlinien verstoßen, entfernen können.
Unterstützung für Prüfer*innen, um die richtigen Entscheidungen zu treffen
Unsere Technologie hilft den manuellen Review-Teams, das zu tun, was sie am besten können.
Wie viele Machine-Learning-Modelle verbessert sich unsere Technologie mit der Zeit, wenn sie mehr Beispiele für verletzende Inhalte erhält. Das bedeutet, dass sich manuelle Review-Teams mehr auf schwerwiegende, virale, nuancierte, neuartige und komplexe Inhalte konzentrieren konnten – genau die Art von Entscheidungen, bei denen Menschen tendenziell bessere Entscheidungen treffen als Technologie.
Häufig gestellte Fragen zur Priorisierung bei Inhaltsprüfungen
Wie hat sich die Priorisierung bei der Durchsetzung im Laufe der Zeit geändert?
Früher verbrachten die manuellen Review-Teams den Großteil ihrer Zeit damit, von Menschen gemeldete Inhalte zu überprüfen. Das bedeutete, dass sie oft zu viel Zeit auf Inhalte mit geringem Schweregrad oder eindeutig nicht verletzende Inhalte verwendeten und nicht genug Zeit auf die schwerwiegendsten Inhalte mit dem größten Schadenspotenzial. Außerdem waren dadurch viele von Menschen getroffene Entscheidungen nicht so nützlich für die Verbesserung unserer Durchsetzungstechnologien.
Unser aktueller Ansatz zur Priorisierung geht auf diese Probleme ein und ermöglicht es uns, die potenziell schädlichsten Inhalte zuerst zu überprüfen und unsere Technologie schneller zu verbessern.
Wird jede Nutzer*innen-Meldung von den manuellen Review-Teams überprüft?
Nicht unbedingt. Sowohl die Review durch Mitarbeitende als auch durch Technologie spielt eine Rolle bei der Überprüfung von Nutzer*innen-Meldungen. In Fällen, in denen unsere Technologie einen bestimmten Inhalt analysieren kann, wird sie für den betreffenden Inhalt automatisch Maßnahmen ergreifen – oder auch nicht.
Wie wird sichergestellt, dass die Entscheidungen von Mitarbeitenden keine Voreingenommenheit in der Technologie bewirken?
Um Bedenken bezüglich Fairness und Inklusion in Zusammenhang mit dem Einsatz von KI in Meta-Technologien auszuräumen, haben wir unser Responsible AI Team gegründet – ein eigens dafür vorgesehenes, multidisziplinäres Team aus Ethiker*innen, Sozial- und Politikwissenschaftler*innen, Politikexpert*innen, Forscher*innen für künstliche Intelligenz und Entwickler*innen. Das übergeordnete Ziel des Teams ist es, Richtlinien, Tools und Prozesse zu entwickeln, um Fragen zum Verantwortungsbewusstsein bezüglich KI anzugehen und dazu beizutragen, dass diese systemischen Ressourcen überall auf Meta verfügbar sind.