Meta

Meta
Richtlinien
GemeinschaftsstandardsMeta-WerbestandardsWeitere RichtlinienSo wird Meta immer besserAltersgerechte Inhalte

Funktionen
Unser Ansatz für gefährliche Organisationen und PersonenUnser Ansatz für die OpioidkriseUnser Ansatz für WahlenUnser Ansatz für FalschmeldungenUnser Ansatz für berichtenswerte InhalteUnser Ansatz für das Ranking im Facebook-FeedUnser Ansatz bei der Erläuterung des RankingsBarrierefreiheit bei Meta

Recherchetools
Content-Bibliothek und Content-Bibliotheks-APITools der WerbebibliothekAndere Recherchetools und Datensätze

Durchsetzung
Erkennen von VerstößenErgreifen von Maßnahmen

Governance
Governance-InnovationenDas Oversight Board im ÜberblickWie man beim Oversight Board Einspruch einlegtFälle des Oversight BoardsEmpfehlungen des Oversight BoardsEinrichtung des Oversight BoardsOversight Board: Weitere häufig gestellte FragenMetas halbjährliche Updates zum Oversight BoardErfassung der Arbeit des Oversight Boards

Sicherheit
Unterbrechungen aufgrund von BedrohungenSicherheitsbedrohungenBerichte zu Bedrohungen

Berichte
Bericht zur Durchsetzung der GemeinschaftsstandardsGeistiges EigentumBehördenanfragen nach Nutzer*innendatenSperrungen von Inhalten auf der Grundlage des vor Ort geltenden RechtsInternetunterbrechungenWidely Viewed Content ReportRegulatorische und andere Transparenzberichte

Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Deutsch
DatenschutzrichtlinieNutzungsbedingungenCookies
Startseite
Richtlinien
Verbesserung
Kennzahl zur Verbreitung

Verbreitung

AKTUALISIERT 06.03.2025
Unser Ziel ist es, die Auswirkungen von Verstößen gegen unsere Richtlinien auf Personen, die unsere Dienste nutzen, zu minimieren. Wir messen die Verbreitung unzulässiger Inhalte, um zu beurteilen, wie erfolgreich wir im Hinblick auf dieses Ziel sind.

Was ist Verbreitung
Bei der Verbreitung werden alle Aufrufe von Inhalten auf Facebook oder Instagram berücksichtigt und der geschätzte Prozentsatz dieser Aufrufe, die unzulässige Inhalte betrafen, gemessen. (Erfahre mehr darüber, wie wir Aufrufe definieren, unter „Warum wir die Verbreitung von Aufrufen messen.“). Bei dieser Metrik wird davon ausgegangen, dass die durch unzulässige Inhalte verursachte Auswirkung proportional zu der Anzahl der Aufrufe dieser Inhalte ist.
Man kann es auch so betrachten, dass die Verbreitung anzeigt, wie viele Aufrufe unzulässiger Inhalte wir nicht verhindert haben – entweder weil wir nicht früh genug gegen die Verstöße vorgegangen sind oder weil sie uns gänzlich entgangen sind.

So messen wir die Verbreitung
Die Verbreitung unzulässiger Inhalte wird anhand von Stichproben von Content-Aufrufen auf Facebook oder Instagram geschätzt. Wir berechnen sie wie folgt: Die geschätzte Anzahl der Aufrufe von unzulässigen Inhalten geteilt durch die geschätzte Anzahl der gesamten Content-Aufrufe auf Facebook oder Instagram. Wenn die Verbreitung von Nacktdarstellung und sexuellen Aktivitäten von Erwachsenen bei 0,18 % bis 0,20 % läge, würde dies bedeuten, dass von jeweils 10.000 Content-Aufrufen durchschnittlich 18 bis 20 Aufrufe Inhalte beträfen, die gegen unsere Standards zu Nacktdarstellung und sexueller Aktivität von Erwachsenen verstoßen.
1 PUNKT = 10 AUFRUFE
10.000 AUFRUFE INSGESAMT
20 AUFRUFE UNZULÄSSIGER INHALTE
Prevalence
Wenn die Verbreitung 0,20 % wäre, hieße das, dass von jeweils 10.000 Aufrufen 20 Aufrufe unzulässige Inhalte beträfen. Die Zahlen können zwar sehr niedrig sein, aber selbst die kleinste Zahl kann erhebliche Auswirkungen auf Menschen haben.
Einige Arten von Verstößen treten bei unseren Diensten sehr selten auf. Die Wahrscheinlichkeit, dass Menschen Inhalte ansehen, die solche Verstöße darstellen, ist sehr gering, und wir entfernen einen Großteil dieser Inhalte, bevor Menschen sie sehen. Aufgrund dieser Tatsache finden wir häufig nicht genug unzulässige Proben für eine präzise Schätzung der Verbreitung. In diesen Fällen schätzen wir die Obergrenze davon, wie oft unzulässige Inhalte ansehen werden, die gegen diese Richtlinien verstoßen. Wenn die Obergrenze für terroristische Propaganda beispielsweise 0,04 % beträgt, bedeutet das, dass von 10.000 Aufrufen auf Facebook oder Instagram in diesem Zeitraum schätzungsweise nicht mehr als 4 dieser Aufrufe Inhalte enthielten, die gegen unsere Richtlinie gegen terroristische Propaganda verstoßen.
Es ist zu beachten, dass wir bei einer solch geringen Verbreitung einer Art von Verstoß nur obere Grenzwerte angeben können und dieser Grenzwert sich zwischen den Berichtszeiträumen um einige hundertstel Prozentpunkte ändern kann. Derart kleine Änderungen sind jedoch möglicherweise statistisch nicht signifikant; in solchen Fällen sind diese kleinen Änderungen kein Hinweis für einen tatsächlichen Unterschied in der Verbreitung des jeweiligen unzulässigen Inhalts auf dem Dienst.

Warum wir die Verbreitung von Aufrufen messen
Häufig schätzen wir, wie oft Inhalte gesehen werden, und nicht, wie viele Inhalte gepostet werden, da wir ermitteln wollen, welche Auswirkungen gewisse Inhalte auf Facebook- oder Instagram-Nutzer*innen haben. Ein unzulässiger Inhalt wird zum Beispiel vielleicht nur einmal veröffentlicht, aber 1.000 Mal, eine Million Mal oder überhaupt nicht angesehen. Die Messung von Aufrufen unzulässiger Inhalte anstelle der Menge der veröffentlichten unzulässigen Inhalte spiegelt die Auswirkungen auf die Community besser wider. Aufgrund der großen Zahl der gesamten Inhaltsaufrufe auf unseren Diensten kann eine niedrige Verbreitungszahl dennoch umfangreiche Auswirkungen auf unseren Diensten bedeuten.
Wir erfassen einen Inhaltsaufruf, wenn ein Inhalt auf dem Bildschirm eines*einer Nutzer*in angezeigt wird. Konkret sprechen wir von einem Aufruf, wenn jemand:
  • Sich einen Beitrag ansieht – selbst, wenn mehrere Inhalte in dem Beitrag enthalten sind, wird der Aufruf dem Beitrag zugeordnet
  • Zum Vergrößern auf ein Foto oder Video klickt – der Aufruf wird dem Foto oder Video zugeordnet

So verwenden wir Sampling zur Schätzung der Verbreitung
Wir schätzen die Verbreitung, indem wir die Content-Aufrufe auf Facebook oder Instagram mithilfe von Stichproben auswerten.
Dazu überprüfen wir manuell Stichproben von Aufrufen und die darin gezeigten Inhalte. Anschließend kategorisieren wir die Stichproben gemäß unseren Richtlinien als Verstoß oder kein Verstoß. Die Teams, die diese Stichproben durchführen, überprüfen den gesamten Beitrag auf Verstöße – auch dann, wenn in einem Aufruf nicht alle Inhalte in dem Beitrag aufgerufen wurden.
Anschließend verwenden wir den Anteil an unzulässigen Inhalten in diesen Stichproben, um den Anteil unzulässiger Inhalte in allen Aufrufen zu schätzen. Es ist zu beachten, dass wir nicht aus jedem Teil von Facebook oder Instagram für jede Art von Verstoß eine Stichprobe ziehen.
Für bestimmte Arten von Verstößen verwenden wir eine geschichtete Stichprobenmethode, die die Stichprobenrate erhöht, wenn der Kontext darauf hinweist, dass der Inhaltsaufruf mit größerer Wahrscheinlichkeit einen Verstoß enthält. Wenn Verstöße beispielsweise häufiger in Gruppen als im Feed aufgerufen würden, würden wir Aufrufe in Gruppen mit einer höheren Wahrscheinlichkeit in die Stichprobe einbeziehen als Aufrufe im Feed. Dies tun wir unter anderem, um die Ungewissheit, die sich durch Stichproben ergibt, zu reduzieren. Wir drücken diese Ungewissheit aus, indem wir einen Wertbereich angeben, z. B. 18 bis 20 von 10.000 Aufrufen enthalten Verstöße wegen Nacktdarstellung und sexueller Aktivität von Erwachsenen. Diese Spanne spiegelt ein Zuverlässigkeitsfenster von 95 % wider. Das bedeutet: Wenn wir diese Messung 100 Mal durchführen und dabei jedes Mal unterschiedliche Stichproben verwenden würden, würden wir erwarten, dass die tatsächliche Anzahl im Bereich von 95 von 100 Fällen liegt.
Bei Arten von Verstößen, die sehr selten aufgerufen werden, erfordert das Sampling eine sehr große Anzahl von Inhaltsproben, damit ein genaues Maß der Verbreitung geschätzt werden kann. In diesen Fällen können wir lediglich die Obergrenze schätzen; d. h. wir sind zuversichtlich, dass die Verbreitung von Aufrufen unzulässiger Inhalte unter diesem Grenzwert liegt, können jedoch nicht präzise sagen, wie weit unter diesem Grenzwert. Unser Zuverlässigkeitsfenster für diese Obergrenzen beträgt ebenfalls 95 %.

Achtung
  • Prüfer*innen, die unsere Stichproben kategorisieren, können Fehler machen und Verstöße als Nicht-Verstöße, oder umgekehrt, einstufen. Die relative Rate dieser Fehler könnte die Messung der Verbreitung beeinflussen. Aus diesem Grund lassen wir eine Stichprobe unter Umständen von zwei Prüfer*innen überprüfen, um sicherzustellen, dass unsere Kategorisierung korrekt ist, und wenn die beiden Prüfer*innen einmal zu unterschiedlichen Ergebnissen kommen, setzen wir eine dritte Person ein, die dann den Ausschlag gibt.
  • Für Bereiche wie gewaltdarstellender Inhalt, bei denen Inhalte als verstörend gekennzeichnet werden können, berücksichtigt unsere Verbreitungsberechnung Aufrufe dieser Inhalte, bevor die Verdeckung hinzugefügt wurde.
  • Die derzeitige Messung der Verbreitung erfasst Oberflächen, die zu mehr als 90 % aller Aufrufe auf Facebook und Instagram beitragen. Sie umfasst keine privaten Unterhaltungen im Messenger oder auf Instagram Direct.
  • Um eine repräsentative Messung der globalen Verbreitung zu erhalten, nehmen wir Stichproben von Inhalten in den unterschiedlichen Sprachen für Facebook und Instagram und kategorisieren sie. Wir sind zuversichtlich, dass dieser Ansatz eine repräsentative globale Schätzung liefert, und arbeiten kontinuierlich an der Ausweitung der Metrik.
  • Unsere Durchsetzung von Content-Richtlinien insgesamt, sowohl durch Prüfer*innen als auch durch Technologie, erstreckt sich auf viele weitere Sprachen.

Verbreitung für gefälschte Konten auf Facebook
Für die Verbreitung gefälschter Konten auf Facebook schätzen wir den Prozentsatz der monatlich aktiven Facebook-Konten, die gefälscht waren. Anders als bei der Verbreitung von Verstößen gegen Inhalte geht bei gefälschten Konten die Verbreitung davon aus, dass die Auswirkungen auf Nutzer*innen proportional zur Anzahl der aktiven gefälschten Konten auf Facebook stehen, selbst wenn die Menschen diese Konten niemals sehen oder mit ihnen in Kontakt kommen.
Um die Verbreitung von gefälschten Konten zu schätzen, nehmen wir eine Stichprobe von monatlich aktiven Nutzer*innen und kennzeichnen sie als gefälscht oder nicht gefälscht. Wir definieren eine*n monatlich aktive*n Nutzer*in (MAU) als einen registrierten Facebook-Nutzer*innen, der zum Zeitpunkt der Messung in den vergangenen 30 Tagen über unsere Website oder ein Mobilgerät bei Facebook angemeldet war oder unsere Messenger-App verwendet hat (und außerdem ein*e registrierte*r Facebook-Nutzer*in ist).
Mehr dazu, wie Meta gefälschte Konten misst
Den neuesten Bericht zur Durchsetzung der Gemeinschaftsstandards ansehen
Meta
Transparency Center
Richtlinien
Durchsetzung
Sicherheit
Funktionen
Governance
Recherchetools
Berichte
Deutsch