Meta

Meta
Richtlinien
GemeinschaftsstandardsMeta-WerbestandardsWeitere RichtlinienSo wird Meta immer besserAltersgerechte Inhalte

Funktionen
Unser Ansatz für gefährliche Organisationen und PersonenUnser Ansatz für die OpioidkriseUnser Ansatz für WahlenUnser Ansatz für FalschmeldungenUnser Ansatz für berichtenswerte InhalteUnser Ansatz für das Ranking im Facebook-FeedUnser Ansatz bei der Erläuterung des RankingsBarrierefreiheit bei Meta

Recherchetools
Content-Bibliothek und Content-Bibliotheks-APITools der WerbebibliothekAndere Recherchetools und Datensätze

Durchsetzung
Erkennen von VerstößenErgreifen von Maßnahmen

Governance
Governance-InnovationenDas Oversight Board im ÜberblickWie man beim Oversight Board Einspruch einlegtFälle des Oversight BoardsEmpfehlungen des Oversight BoardsEinrichtung des Oversight BoardsOversight Board: Weitere häufig gestellte FragenMetas halbjährliche Updates zum Oversight BoardErfassung der Arbeit des Oversight Boards

Sicherheit
Unterbrechungen aufgrund von BedrohungenSicherheitsbedrohungenBerichte zu Bedrohungen

Berichte
Bericht zur Durchsetzung der GemeinschaftsstandardsGeistiges EigentumBehördenanfragen nach Nutzer*innendatenSperrungen von Inhalten auf der Grundlage des vor Ort geltenden RechtsInternetunterbrechungenWidely Viewed Content ReportRegulatorische und andere Transparenzberichte

Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Deutsch
DatenschutzrichtlinieNutzungsbedingungenCookies
Startseite
Richtlinien
Verbesserung
Kennzahl für Inhalte, gegen die Maßnahmen ergriffen wurden

Inhalte, gegen die wir Maßnahmen ergriffen haben

AKTUALISIERT 06.11.2024
Wir messen die Anzahl der Inhalte (wie Beiträge, Fotos, Videos oder Kommentare) oder Konten, bei denen wir Maßnahmen wegen Verstößen gegen unsere Standards ergreifen. Diese Kennzahl zeigt die Dimension unser Durchsetzungsaktivität. Maßnahmen ergreifen könnte u. a. heißen, dass wir einen Inhalt von Facebook oder Instagram entfernen, Fotos oder Videos mit einem Warnhinweis verdecken, wenn sie für bestimmte Zielgruppen verstörend sein könnten, oder dass wir Konten deaktivieren. Falls wir Inhalte an die Strafverfolgungsbehörden eskalieren, zählen wir dies nicht zusätzlich.
Es könnte verlockend sein, unsere Kennzahl für Inhalte, gegen die wir Maßnahmen ergriffen haben, als Indikator dafür anzusehen, wie effektiv wir Verstöße erkennen oder wie sich diese Verstöße auf unsere Gemeinschaft auswirken. Die Menge der Inhalte, gegen die wir Maßnahmen ergreifen, ist jedoch nur ein Teil des großen Ganzen. Sie spiegelt nicht wider, wie lange es gedauert hat, einen Verstoß zu erkennen oder wie oft Nutzer*innen diesen Verstoß gesehen haben, während er auf Facebook oder Instagram war.
Diese Kennzahl kann aufgrund externer Faktoren, über die wir keine Kontrolle haben, nach oben oder unten schwanken. Nehmen wir beispielsweise einen Cyberangriff, in dessen Verlauf Spammer*innen 10 Millionen Beiträge mit derselben schädlichen URL teilen. Nach der Entdeckung der URL entfernen wir die 10 Millionen Beiträge. Es würden als Inhalte, gegen die wir Maßnahmen ergriffen haben, 10 Millionen Inhalte gemeldet – also ein gewaltiger Anstieg. Aber diese Zahl sagt nicht unbedingt aus, dass wir besser in der Bekämpfung von Spam geworden sind, sondern eher, dass Spammer*innen in dem Monat beschlossen haben, Facebook mit primitivem Spam anzugreifen, was leicht zu erkennen war. Die Zahl der Inhalte, gegen die wir Maßnahmen ergriffen haben, gibt auch keinen Hinweis darauf, wie viel von diesem Spam sich tatsächlich auf Nutzer*innen ausgewirkt hat: Die Menschen könnten ihn nur wenige Male oder einige hundert oder sogar tausend Male gesehen haben. (Diese Information wird in der Verbreitung erfasst.) Nach dem Cyberangriff könnten die Inhalte, gegen die wir Maßnahmen ergriffen haben, dramatisch sinken, selbst wenn sich unsere vorausschauende Erkennung verbessert.
policy-image
Ein Inhalt kann alles Mögliche sein: zum Beispiel ein Post, ein Foto, ein Video oder ein Kommentar.

So zählen wir Inhalte und Maßnahmen
Die Methodik, mit der wir Inhalte zählen, ist komplex und hat sich mit der Zeit weiterentwickelt. Im Juli 2018 haben wir unsere Methodik aktualisiert, um klarzustellen, bei wie vielen einzelnen Inhalten wir Maßnahmen ergriffen haben, weil sie gegen unsere Richtlinien verstoßen haben, und wir werden unsere Methodik im Rahmen unseres Engagements, möglichst genaue und bedeutsame Kennzahlen zu liefern, weiter ausbauen und verbessern. Insgesamt möchten wir die Gesamtzahl der Inhalte, gegen die wir wegen Verstößen gegen unsere Richtlinien Maßnahmen ergreifen, möglichst akkurat darstellen.
Es gibt einige Unterschiede in der Art und Weise, wie wir Inhalte auf Facebook und Instagram zählen.
Auf Facebook zählt ein Beitrag ohne Foto oder Video oder ein einzelnes Foto oder Video als ein Inhalt. Das bedeutet, dass alle folgenden Elemente im Falle ihrer Entfernung jeweils als ein unzulässiger Inhalt gezählt werden: ein Beitrag mit einem Foto, das unzulässig ist; ein Beitrag mit Text, der unzulässig ist; und ein Beitrag mit Text und einem Foto, von dem eines oder beide unzulässig sind.
Wenn ein Beitrag auf Facebook mehrere Fotos oder Videos enthält, zählen wir jedes Foto oder Video als einen Inhalt. Wenn wir z. B. zwei unzulässige Fotos aus einem Facebook-Beitrag mit vier Fotos entfernen, zählen wir dies als zwei Inhalte, gegen die wir Maßnahmen ergriffen haben: einen für jedes entfernte Foto. Wenn wir den gesamten Beitrag entfernen, zählen wir auch den Beitrag selbst. Wenn wir also z. B. einen Facebook-Beitrag mit vier Fotos entfernen, würden wir dies als fünf Inhalte zählen, gegen die wir Maßnahmen ergriffen haben: einen für jedes Foto und einen für den Beitrag. Wenn wir nur einige der angehängten Fotos und Videos aus einem Beitrag entfernen, zählen wir nur diese Inhalte.
Auf Instagram entfernen wir den gesamten Beitrag, wenn er unzulässigen Inhalt enthält, und wir zählen dies als einen Inhalt, gegen den wir Maßnahmen ergriffen haben, unabhängig davon, wie viele Fotos oder Videos der Beitrag enthält.
Manchmal wird festgestellt, dass ein Inhalt gegen mehrere Standards verstößt. Für die Messung ordnen wir die Maßnahme nur einem Primärverstoß zu. In der Regel ist dies der Verstoß gegen den strengsten Standard. In anderen Fällen fordern wir den*die Prüfer*in auf zu entscheiden, welches der primäre Grund für den Verstoß ist.

So kennzeichnen wir Verstöße
Jedes Mal, wenn wir Maßnahmen gegen einen Inhalt ergreifen, kennzeichnen wir den Inhalt mit der Richtlinie, gegen die er verstoßen hat. Bei ihrer Überprüfung der Meldungen entscheiden die Prüfer*innen zunächst, ob das Material gegen unsere Richtlinien verstößt oder nicht. Wenn sie entscheiden, dass dies der Fall ist, kategorisieren sie die Art des Verstoßes.
In der Vergangenheit haben wir nicht von unseren Prüfer*innen verlangt, bei ihrer Entscheidungsfindung die Verstöße zu kategorisieren. Stattdessen haben wir uns auf die Informationen verlassen, die Nutzer*innen uns bei Einreichung ihrer Meldungen bereitgestellt haben. 2017 haben wir unseren Überprüfungsprozess dahingehend erweitert, dass er detailliertere Informationen dazu erfasst, warum die Prüfer*innen einen Inhalt entfernt haben. Dadurch erhalten wir genauere Kennzahlen. Außerdem haben wir unsere Erkennungstechnologie verbessert, sodass sie Verstöße kategorisiert, sobald diese erkannt, gekennzeichnet oder entfernt werden. Dabei werden dieselben Kategorien wie bei den Entscheidungen unserer Prüfer*innen verwendet.
policy-image
Um zu erfassen, gegen wie viele Inhalte wir aufgrund von bestimmten Standardverstößen vorgehen, müssen wir den Verstoß bei jeder ergriffenen Maßnahme kategorisieren.

Konten auf Facebook, gegen die wir Maßnahmen ergreifen, weil sie gefälscht sind
Für gefälschte Konten melden wir „Konten, gegen die Maßnahmen ergriffen wurden“, im Gegensatz zu „Inhalte, gegen die Maßnahmen ergriffen wurden“. „Konten, gegen die Maßnahmen ergriffen wurden“ gibt die Anzahl an Konten an, die wir deaktivieren, weil sie gefälscht sind.

Achtung
Zu den Inhalten, gegen die wir Maßnahmen ergriffen haben, und den Konten, gegen die wir Maßnahmen ergriffen haben, zählen wir nicht die Fälle, in denen wir verhindern, dass Inhalte oder Konten überhaupt erstellt werden. Dazu gehört, wenn wir erkennen, dass Spammer*innen versuchen, Beiträge mit hoher Frequenz zu posten, oder wenn wir die Erstellung eines gefälschten Kontos aufdecken. Wenn wir diese Verhinderungen einbeziehen würden, würde dies die Zahlen für deaktivierte gefälschte Konten und entfernte Spam-Inhalte drastisch erhöhen (wahrscheinlich täglich um Millionen).
Wenn wir bei URLs Maßnahmen durchsetzen, entfernen wir alle aktuellen oder zukünftigen Inhalte, die diese Links enthalten. Wir messen, gegen wie viele Inhalte wir Maßnahmen ergriffen haben, basierend darauf, ob ein*e Nutzer*in versucht, diesen Inhalt auf Facebook anzuzeigen.

So messen wir Maßnahmen, die wir gegen Konten, Seiten, Gruppen und Veranstaltungen ergriffen haben
In Nutzer*innenkonten, auf Seiten, in Gruppen oder Veranstaltungen auf Facebook können große Mengen an Inhalten bestehen. Jedes dieser Objekte kann vollständig gegen unsere Richtlinien verstoßen, wenn es bestimmte Inhalte oder Verhaltensweisen aufweist. Wir können in der Regel feststellen, dass ein Konto, eine Seite, eine Gruppe oder eine Veranstaltung gegen unsere Standards verstößt, ohne alle enthaltenen Inhalte zu überprüfen. Wenn wir ein Konto oder eine Seite, Gruppe oder Veranstaltung deaktivieren, werden sämtliche darin enthaltenen Inhalte automatisch für Nutzer*innen unzugänglich.
In den im Bericht zur Durchsetzung der Gemeinschaftsstandards enthaltenen Kennzahlen zählen wir nur die Inhalte in Konten, Seiten, Gruppen oder Veranstaltungen, die wir bei unseren Überprüfungen dieser Objekte als unzulässig eingestuft und gegen die wir explizit Maßnahmen ergriffen haben. Wir zählen keine Inhalte, die automatisch entfernt werden, wenn wir ein Konto, eine Seite, Gruppe oder Veranstaltung deaktivieren, das/die den Inhalt enthielt.
Abgesehen von gefälschten Konten auf Facebook enthält dieser Bericht derzeit keine kontenbezogenen Kennzahlen für Verstöße. Dieser Bericht enthält auch keine Kennzahlen für Seiten, Gruppen oder Veranstaltungen, gegen die wir wegen Verstößen Maßnahmen ergriffen haben – nur Inhalte innerhalb dieser Objekte.
Den neuesten Bericht zur Durchsetzung der Gemeinschaftsstandards ansehen
Meta
Transparency Center
Richtlinien
Durchsetzung
Sicherheit
Funktionen
Governance
Recherchetools
Berichte
Deutsch