Meta
Startseite
Richtlinien
Verbesserung
Priorisierung der Inhaltsprüfung

So priorisiert Meta Inhalte zur Überprüfung

AKTUALISIERT 12.11.2024
Die Meta-Technologien erkennen und entfernen die Mehrheit unzulässiger Inhalte proaktiv, bevor sie überhaupt gemeldet werden. Wenn jemand einen Beitrag auf Facebook, Instagram, Threads oder im Messenger veröffentlicht, überprüfen unsere Technologien, ob der Inhalt gegen die Gemeinschaftsstandards verstößt. In den meisten Fällen ist die Identifizierung solcher Inhalte einfach. Entweder verstößt ein Beitrag eindeutig gegen unsere Richtlinien oder nicht.
In anderen Fällen ist die Identifizierung schwieriger. Vielleicht ist die Stimmung des Beitrags unklar, die Formulierung ist besonders komplex oder die Bilder sind zu sehr vom Kontext abhängig. In diesen Fällen führen wir eine weitere Überprüfung durch Mitarbeitende durch.

Faktoren für die Überprüfung durch Mitarbeitende priorisieren
Bei der Entscheidung, welche Inhalte unsere manuellen Review-Teams zuerst überprüfen sollten, berücksichtigen wir drei Hauptfaktoren:
SCHWEREGRAD
Wie wahrscheinlich ist es, dass der Inhalt online oder offline zu Schaden führt?
VIRALITÄT
Wie schnell wird der Inhalt geteilt?
WAHRSCHEINLICHKEIT EINES VERSTOSSES
Wie wahrscheinlich ist es, dass der betreffende Inhalt tatsächlich gegen unsere Richtlinien verstößt?
Da wir so viel Schaden wie möglich verhindern wollen, verwenden unsere Prüfsysteme Technologien, um Inhalte mit hohem Schweregrad und dem Potenzial für Offline-Schäden sowie virale Inhalte, die sich schnell verbreiten, zu priorisieren.

Manuelle Review-Teams helfen, unsere Technologie zu verbessern
Unsere manuellen Review-Teams setzen ihr Fachwissen in bestimmten Bereichen und Sprachen ein, um schwierige Entscheidungen zu treffen, bei denen oft Nuancen entscheiden. Jedes Mal, wenn die Review-Teams eine Entscheidung treffen, verwenden wir diese Informationen, um unsere Technologie zu trainieren. Im Laufe der Zeit wird unsere Technologie durch Millionen von Entscheidungen immer besser, sodass wir mehr Inhalte, die gegen Richtlinien verstoßen, entfernen können.
Unterstützung für Prüfer*innen, um die richtigen Entscheidungen zu treffen

Unsere Technologie hilft den manuellen Review-Teams, das zu tun, was sie am besten können.
Wie viele Machine-Learning-Modelle verbessert sich unsere Technologie mit der Zeit, wenn sie mehr Beispiele für verletzende Inhalte erhält. Das bedeutet, dass sich manuelle Review-Teams mehr auf schwerwiegende, virale, nuancierte, neuartige und komplexe Inhalte konzentrieren konnten – genau die Art von Entscheidungen, bei denen Menschen tendenziell bessere Entscheidungen treffen als Technologie.

Häufig gestellte Fragen zur Priorisierung bei Inhaltsprüfungen

Wie hat sich die Priorisierung bei der Durchsetzung im Laufe der Zeit geändert?
Früher verbrachten die manuellen Review-Teams den Großteil ihrer Zeit damit, von Menschen gemeldete Inhalte zu überprüfen. Das bedeutete, dass sie oft zu viel Zeit auf Inhalte mit geringem Schweregrad oder eindeutig nicht verletzende Inhalte verwendeten und nicht genug Zeit auf die schwerwiegendsten Inhalte mit dem größten Schadenspotenzial. Außerdem waren dadurch viele von Menschen getroffene Entscheidungen nicht so nützlich für die Verbesserung unserer Durchsetzungstechnologien.
Unser aktueller Ansatz zur Priorisierung geht auf diese Probleme ein und ermöglicht es uns, die potenziell schädlichsten Inhalte zuerst zu überprüfen und unsere Technologie schneller zu verbessern.

Wird jede Nutzer*innen-Meldung von den manuellen Review-Teams überprüft?
Nicht unbedingt. Sowohl die Review durch Mitarbeitende als auch durch Technologie spielt eine Rolle bei der Überprüfung von Nutzer*innen-Meldungen. In Fällen, in denen unsere Technologie einen bestimmten Inhalt analysieren kann, wird sie für den betreffenden Inhalt automatisch Maßnahmen ergreifen – oder auch nicht.

Wie wird sichergestellt, dass die Entscheidungen von Mitarbeitenden keine Voreingenommenheit in der Technologie bewirken?
Um Bedenken bezüglich Fairness und Inklusion in Zusammenhang mit dem Einsatz von KI in Meta-Technologien auszuräumen, haben wir unser Responsible AI Team gegründet – ein eigens dafür vorgesehenes, multidisziplinäres Team aus Ethiker*innen, Sozial- und Politikwissenschaftler*innen, Politikexpert*innen, Forscher*innen für künstliche Intelligenz und Entwickler*innen. Das übergeordnete Ziel des Teams ist es, Richtlinien, Tools und Prozesse zu entwickeln, um Fragen zum Verantwortungsbewusstsein bezüglich KI anzugehen und dazu beizutragen, dass diese systemischen Ressourcen überall auf Meta verfügbar sind.

Meta
Richtlinien
GemeinschaftsstandardsMeta-WerbestandardsWeitere RichtlinienSo wird Meta immer besserAltersgerechte Inhalte

Funktionen
Unser Ansatz für gefährliche Organisationen und PersonenUnser Ansatz für die OpioidkriseUnser Ansatz für WahlenUnser Ansatz für FalschmeldungenUnser Ansatz für berichtenswerte InhalteUnser Ansatz für das Ranking im Facebook-FeedUnser Ansatz bei der Erläuterung des RankingsBarrierefreiheit bei Meta

Recherchetools
Content-Bibliothek und Content-Bibliotheks-APITools der WerbebibliothekAndere Recherchetools und Datensätze

Durchsetzung
Erkennen von VerstößenErgreifen von Maßnahmen

Governance
Governance-InnovationenDas Oversight Board im ÜberblickWie man beim Oversight Board Einspruch einlegtFälle des Oversight BoardsEmpfehlungen des Oversight BoardsEinrichtung des Oversight BoardsOversight Board: Weitere häufig gestellte FragenMetas halbjährliche Updates zum Oversight BoardErfassung der Arbeit des Oversight Boards

Sicherheit
Unterbrechungen aufgrund von BedrohungenSicherheitsbedrohungenBerichte zu Bedrohungen

Berichte
Bericht zur Durchsetzung der GemeinschaftsstandardsGeistiges EigentumBehördenanfragen nach Nutzer*innendatenSperrungen von Inhalten auf der Grundlage des vor Ort geltenden RechtsInternetunterbrechungenWidely Viewed Content ReportRegulatorische und andere Transparenzberichte

Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Deutsch
DatenschutzrichtlinieNutzungsbedingungenCookies
Meta
Transparency Center
Richtlinien
Durchsetzung
Sicherheit
Funktionen
Governance
Recherchetools
Berichte
Deutsch