Meta
Startseite
Richtlinien
Verbesserung
Korrekturanpassungen

Korrekturen und Anpassungen

AKTUALISIERT 02.10.2024
Wir führen alle spezifischen Anpassungen auf, die durch unsere Verfahren zur Informationsqualität identifiziert wurden. Wir aktualisieren dies in Übereinstimmung mit unseren Messprozessen.

8/2024: Behebung eines Fehlers bei der Messung der Häufigkeit von Fake Accounts auf Facebook
Wir haben einen Fehler in der Abfrage entdeckt, die zur Berechnung der Häufigkeit von gefälschten Konten auf Facebook im 1. Quartal 2024 verwendet wurde, und haben ihn behoben. Infolgedessen haben wir die Häufigkeit im 1. Quartal 2024 etwas überschätzt.

5/2024: Behebung eines Fehlers in der Stichprobenmethodik für die Verbreitung auf Facebook und Instagram
Die Verbreitung unzulässiger Inhalte wird anhand von Stichproben von Content-Aufrufen auf Facebook oder Instagram geschätzt. Wir haben einen Fehler behoben, bei dem eine geringe Menge an irrelevanten Daten in die Stichproben einfloss. Dieses Problem wurde gelöst und führte zu keiner wesentlichen Änderung bei der Verbreitung.

11/2023: Aktualisierung der Berechnungen für die proaktive Erkennungsrate auf Facebook und Instagram; Phishing wird nicht mehr dem Spam zugerechnet
Die proaktive Erkennungsrate ist für mehrere Arten von Verstößen gestiegen, da wir unsere Methodik aktualisiert haben. Vor dieser Änderung haben wir, wenn ein Beitrag von Nutzer*innen gemeldet wurde, auch die Kommentare zu dem Beitrag als von Nutzer*innen gemeldet erachtet. Ab dem 3. Quartal 2023 haben wir diese Methodik geändert und erachten Kommentare nur dann als von Nutzer*innen gemeldet, wenn sie direkt von Nutzer*innen gemeldet wurden.
Außerdem werden zur Anpassung an eine vorherige Richtlinienänderung von Meta seit dem 3. Quartal 2023 in den Berichten zur Durchsetzung der Gemeinschaftsstandards die Kennzahlen für Phishing nicht mehr dem Spam zugerechnet.

8/2023: Aktualisierung der Methodik für Fake Accounts auf Facebook und Instagram
Gemäß dem EU-Gesetz über digitale Dienste (Digital Services Act, DSA) müssen Einsprüche Nutzer*innen nach Ergreifung einer Durchsetzungsmaßnahme sechs Monate lang zugänglich sein, was das Zeitfenster für Einsprüche erweitert. Das bedeutet, dass wir, um das Nutzungserlebnis in unseren Metriken für Fake Accounts sinnvoll darzustellen, unsere Zurechnungsmethode für Fake Accounts aktualisiert haben, um sie an diesen neuen Zeitraum anzupassen. Der Anstieg, den wir zwischen dem 1. Quartal und 2. Quartal bei der Entfernung von Fake Accounts festgestellt haben, ist auf diese Änderung der Zurechnungsmethode zurückzuführen.

2/2023: Aktualisierung der Methodik für die proaktive Erkennungsrate auf Facebook und Instagram
Im Zuge unserer Bemühungen, die von uns in diesem Bericht veröffentlichten Metriken kontinuierlich zu verfeinern und zu verbessern, haben wir unsere Methodik für die proaktive Erkennungsrate ab dem 4. Quartal 2022 aktualisiert, um Durchsetzungsmaßnahmen nur dann als „proaktiv“ zu zählen, wenn wir den unzulässigen Inhalt erkennen und Maßnahmen gegen ihn ergreifen, bevor Nutzer*innen ihn uns melden. Nach der alten Methodik würden die Maßnahmen als „proaktiv“ gezählt werden, wenn die proaktive Erkennung erstmalig in Szenarien stattgefunden hat, in denen beide Erkennungsgründe vorlagen (d. h., der Inhalt wurde sowohl proaktiv erkannt als auch von Nutzer*innen gemeldet). Die neue Methodik berücksichtigt das Vorliegen von Nutzer*innenmeldungen und zählt diese Fälle jetzt als „reaktiv“ anstatt als „proaktiv“. Auch wenn diese Änderung keine wesentlichen Auswirkungen auf die Metriken hat, trug sie dennoch zu geringfügigen Unterschieden im Quartalsvergleich bei der Metrik für die proaktive Erkennungsrate bei. Die Tabelle in diesem Dokument stellt einen Vergleich der mit der alten und der neuen Methodik gemessenen Metriken für die Berichtszeiträume 3. Quartal/4. Quartal 2022 dar.

8/2022: Aktualisierung der Methodik für Inhalte auf Facebook und Instagram, für die Einspruch erhoben wurde
Ab dem 1. Quartal 2020 konnten wir aufgrund von durch COVID-19 bedingten vorübergehenden Einschränkungen unserer Prüfkapazität den Menschen zwar nicht immer die Möglichkeit zum Einlegen eines Einspruchs anbieten, sie erhielten aber dennoch die Möglichkeit, uns mitzuteilen, dass sie mit unserer Entscheidung nicht einverstanden waren. Wie unsere Daten zwischen dem 1. Quartal 2020 und dem 1. Quartal 2022 zeigen, haben wir diese Fälle nicht in unserer Definition für die Einspruchsmetrik gezählt, da sie zwar wertvolles Nutzer*innenfeedback bereitstellen, aber ohne die Möglichkeit zur Überprüfung nicht als Einspruch gewertet werden können. Im Laufe des vergangenen Jahres haben wir diese Einspruchserlebnisse verbessert und weiterentwickelt und jetzt, wo sich unsere Abläufe stabilisiert haben, überprüfen wir viele dieser Fälle.
Im Zuge unserer Bemühungen, die von uns in diesem Bericht veröffentlichten Metriken kontinuierlich zu verfeinern und zu verbessern, haben wir unsere Methodik für Einsprüche ab dem 2. Quartal 2022 aktualisiert, um alle Fälle zu berücksichtigen, in denen Inhalte zwecks zusätzlicher Überprüfung eingereicht wurden, u. a., wenn Personen uns mitgeteilt haben, dass sie nicht mit unserer Entscheidung einverstanden waren. Wir schließen weiterhin Fälle aus, in denen Inhalte uns nicht zwecks zusätzlicher Überprüfung eingereicht werden, auch dann, wenn Personen uns mitgeteilt haben, dass sie nicht mit unserer Entscheidung einverstanden sind, wie in vielen Fällen von Spam.

2/2022: Inhalte, gegen die Maßnahmen ergriffen wurden, Inhalte, für die Nutzer*innen Einspruch erhoben haben, proaktive Erkennungsrate und wiederhergestellte Inhalte mit Bezug auf Terrorismus auf Facebook und Instagram.
Im 4. Quartal haben wir Maßnahmen identifiziert und neu klassifiziert, die wir bezüglich terroristischer Inhalte auf Facebook und Instagram ergriffen hatten. Dies wirkte sich auf die Zahlen aus, die wir zuvor für Inhalte, gegen die Maßnahmen ergriffen wurden, die proaktive Erkennungsrate, Inhalte, für die Einspruch erhoben wurde, sowie wiederhergestellte Inhalte für das 3. Quartal 2021 veröffentlicht hatten, und wir haben die Zahlen entsprechend angepasst.

11/2021: Ergreifung von Maßnahmen gegen Inhalte wegen Suizid und Selbstverletzung auf Instagram, und Wiederherstellung von Inhalten, gegen die wir wegen Nacktdarstellung und sexuellem Missbrauch von Kindern auf Facebook vorgegangen sind.
Im 2. Quartal 2020 stellte sich heraus, dass einige der Inhalte, gegen die wir entsprechend unserer Richtlinie zu gewaltdarstellenden und drastischen Inhalten Maßnahmen ergriffen hatten, tatsächlich gegen unsere spezifische Richtlinie zu Suizid und Selbstverletzung verstießen. Wir haben diese Inhalte im 2. Quartal 2020 entsprechend neu klassifiziert, was sich auf die Zahlen auswirkte, die wir zuvor für Inhalte veröffentlicht hatten, gegen die wir auf Instagram Maßnahmen ergriffen hatten. Außerdem haben wir im 3. Quartal 2020 aufgrund zuvor falsch kategorisierter Einheiten geringfügige Anpassungen an unseren Zahlen für wiederhergestellte Inhalte vorgenommen, gegen die wir aufgrund von Nacktdarstellung und sexuellem Missbrauch von Kindern auf Instagram Maßnahmen ergriffen hatten. Wir werden historische Zahlen im Rahmen der Aktualisierung unserer Richtlinien weiterhin bei Bedarf anpassen und unsere Systeme und Zurechnungsmethoden weiter verbessern.

8/2021: Ergreifung von Maßnahmen gegen Inhalte wegen Spam, Suizid und Selbstverletzung, proaktive Erkennungsrate für Mobbing und Belästigung sowie Suizid und Selbstverletzung, Wiederherstellung von Inhalten, gegen die Maßnahmen wegen Nacktheit und sexuellen Handlungen von Erwachsenen ergriffen wurden
In diesem Quartal haben wir unsere Metriken für Spam und Suizid und Selbstverletzung optimiert, wodurch sich geringfügige Änderungen gegenüber den zuvor gemeldeten Zahlen ergaben. Außerdem haben wir unsere Methodik angepasst, was zu einigen kleinen Veränderungen hinsichtlich der proaktiven Erkennungsraten für Mobbing und Belästigung sowie Suizid und Selbstverletzung führte. Und schließlich haben wir einige Inhalte, gegen die Maßnahmen wegen Spam ergriffen wurden, neu unter Nacktheit und sexuelle Handlungen von Erwachsenen klassifiziert, was sich auf die Kennzahlen für Inhalte, die wir wiederhergestellt haben, auswirkte.

5/2021: Ergreifung von Maßnahmen gegen Inhalte wegen Suizid und Selbstverletzung auf Facebook
Im Jahr 2020 stellte sich heraus, dass einige der Inhalte, gegen die wir aufgrund unserer Richtlinie zu gewaltdarstellenden und drastischen Inhalten Maßnahmen ergriffen hatten, tatsächlich gegen unsere Richtlinie für Suizid und Selbstverletzung verstießen. Wir haben diese Inhalte entsprechend neu klassifiziert, was sich auf die Zahlen auswirkte, die wir zuvor für Inhalte veröffentlicht hatten, gegen die wir im Jahr 2020 auf Facebook Maßnahmen ergriffen haben.

2/2021: Wiederherstellung von Inhalten, gegen die wir wegen Nacktheit und sexuellen Handlungen von Erwachsenen auf Facebook vorgegangen sind, Verbreitung und Inhalte, gegen die aufgrund von gewaltdarstellenden und drastischen Inhalten auf Facebook Maßnahmen ergriffen wurden, Inhalte, gegen die aufgrund von Suizid und Selbstverletzung auf Facebook Maßnahmen ergriffen wurden und von Instagram wiederhergestellte Inhalte
Im 4. Quartal haben wir Klarstellungen zu bestimmten Arten von Bildern für unsere Richtlinie zu Nacktheit und sexuellen Handlungen von Erwachsenen auf Facebook eingeführt. Auf Grundlage der neuen Richtlinie haben wir einige Inhalte, gegen die zuvor Maßnahmen ergriffen worden waren, wiederhergestellt, was sich auf die Zahlen auswirkte, die wir zuvor für wiederhergestellte Inhalte auf Facebook im 3. Quartal veröffentlicht hatten.
Die Verbreitung von gewaltdarstellenden und drastischen Inhalten auf Facebook war im Bericht zur Durchsetzung der Gemeinschaftsstandards für November 2020 mit 0,05 % bis 0,06 % der Aufrufe angegeben worden. Im Bericht vom Februar 2021 haben wir die Verbreitung von gewaltdarstellenden und drastischen Inhalten auf etwa 0,07 % der Aufrufe im 3. Quartal aktualisiert.
Nachdem wir Anfang September wieder mehr Kapazitäten für manuelle Prüfungen hatten, stellte sich heraus, dass einige der Inhalte, gegen die wir im 2. Quartal entsprechend unserer Richtlinie zu gewaltdarstellenden und drastischen Inhalten Maßnahmen ergriffen hatten, tatsächlich gegen unsere Richtlinie für Suizid und Selbstverletzung verstießen. Wir haben diese Inhalte entsprechend neu klassifiziert, was sich auf die Zahlen auswirkte, die wir zuvor für Inhalte veröffentlicht hatten, gegen die wir im 3. Quartal auf Facebook Maßnahmen ergriffen hatten.
Zusätzlich haben wir unsere Zahlen für wiederhergestellte Inhalte für Q1 und Q2 auf Instagram angepasst, um zuvor nicht berichtete Kommentare zu berücksichtigen, die wir wiederhergestellt haben. Dies hat zu minimalen Änderungen in den meisten Richtlinienbereichen auf Instagram geführt, und wir haben die zuvor veröffentlichten Daten entsprechend angepasst. Wir werden historische Zahlen im Rahmen der Aktualisierung unserer Richtlinien weiterhin bei Bedarf anpassen und unsere Systeme und Zurechnungsmethoden weiter verbessern.

11/2020: Aktualisierung in Bezug auf die Anpassungen an Inhalten, gegen die Maßnahmen ergriffen wurden, die proaktive Erkennungsrate, Inhalte, für die Nutzer*innen Einspruch erhoben haben, sowie Inhalte, die auf Facebook und Instagram wiederhergestellt wurden
Im 3. Quartal haben wir eine Aktualisierung vorgenommen, durch die grausame oder taktlose Inhalte, gegen die zuvor Maßnahmen ergriffen wurden, neu kategorisiert wurden, sodass diese nicht mehr als Hassrede gelten. Diese Aktualisierung wirkte sich auf die Zahlen aus, die wir zuvor für Inhalte, gegen die Maßnahmen ergriffen wurden, die proaktive Erkennungsrate, Inhalte, für die Einspruch erhoben wurde, sowie wiederhergestellte Inhalte für Q4 2019, Q1 2020 und Q2 2020 veröffentlicht hatten, und wir haben die Zahlen entsprechend angepasst. Wir haben auch unsere Richtlinie aktualisiert, um mehr Arten von Inhalten betreffend Suizid und Selbstverletzung zu entfernen, und einige gewaltdarstellende und drastische Inhalte neu kategorisiert, die wir zuvor im 2. Quartal als verstörend gekennzeichnet hatten.
Außerdem haben wir unsere Zahlen für wiederhergestellte Inhalte für das 1. Quartal und das 2. Quartal auf Instagram angepasst, um zuvor nicht gemeldete Kommentare, die wir wiederhergestellt haben, zusätzlich zu einem Problem mit unserer Datenquelle für den Bericht im August 2020 zu berücksichtigen. Dies hat zu minimalen Änderungen in den meisten Richtlinienbereichen auf Facebook und Instagram geführt, und wir passen die zuvor veröffentlichten Daten entsprechend an. Wir werden historische Zahlen im Rahmen der Aktualisierung unserer Richtlinien weiterhin bei Bedarf anpassen und unsere Systeme und Zurechnungsmethoden weiter verbessern.

8/2020: Ergreifung von Maßnahmen gegen gewaltdarstellende und drastische Inhalte auf Instagram
Im 1. Quartal 2020 haben wir ein Problem bei der Berücksichtigung der von unserer proaktiven Erkennungstechnologie für gewaltdarstellende und drastische Inhalte auf Instagram ergriffenen Maßnahmen identifiziert und korrigiert, und wir waren in der Lage, sämtliche unserer Berichtssysteme im 2. Quartal zu aktualisieren. Für gewaltdarstellende und drastische Inhalte auf Instagram, gegen die Maßnahmen ergriffen wurden, wurden die im 1. Quartal 2020 durchgeführten Maßnahmen im Bericht vom Mai 2020 mit 2,3 Millionen Inhalten angegeben und im Bericht vom August 2020 auf 2,8 Millionen aktualisiert.

5/2020: Aktualisierung in Bezug auf Anpassungen an Inhalten, gegen die Maßnahmen ergriffen wurden, Inhalten, gegen die proaktive Maßnahmen ergriffen wurden, Inhalten, für die Nutzer*innen Einspruch erhoben haben, sowie Inhalten, die auf Facebook und Instagram wiederhergestellt wurden
Zum Zeitpunkt unserer letzten Aktualisierung im November 2019 haben wir eine Reihe von Verbesserungen an unseren Systemen und Zurechnungsmethoden vorgenommen. Diese Verbesserungen ermöglichten es uns, die größten Auswirkungen einzuschätzen, während wir zu diesem Zeitpunkt noch unsere Kennzahlen anpassten. Nach dem Bericht vom November 2019 haben wir diese Verbesserungen weiter verfeinert.
Infolge dieser Aktivitäten passen wir in der fünften Ausgabe des Berichts zur Durchsetzung der Gemeinschaftsstandards für Mai 2020 die zuvor veröffentlichten Daten an. Die meisten Kategorien für 2019 sind nur minimal betroffen, und die Anpassungen der Daten betreffen Änderungen von nicht mehr als 3 % der Inhalte, gegen die Maßnahmen ergriffen wurden. Wir aktualisieren weiterhin die historischen Zahlen, wenn wir zuvor aufgrund verschiedener Verstöße entfernte Inhalte basierend auf bestehenden und sich ändernden Protokollen neu klassifizieren. Auch unsere Systeme und Zurechnungsmethoden werden wir weiter verbessern.

11/2019: Ergreifung von Maßnahmen gegen Inhalte wegen Spam, proaktive Erkennungsrate für Spam auf Facebook
Bei Meta ergreifen verschiedene Systeme Maßnahmen gegen unterschiedliche Arten von Inhalten, um die Effizienz und Zuverlässigkeit der Milliarden von Maßnahmen, die jedes Quartal stattfinden, zu verbessern. Eines dieser Systeme, das sich hauptsächlich mit Inhalten mit Links befasst, protokollierte unsere Maßnahmen für bestimmte entfernte Inhalte nicht, wenn innerhalb von sieben Tagen nach ihrer Erstellung niemand versuchte, sie aufzurufen, auch wenn diese Inhalte von der Plattform entfernt wurden.
Wir wissen zwar, dass dadurch die tatsächliche Anzahl von Inhalten mit externen Links unterschätzt wird, was sich hauptsächlich auf unsere Spam-Kennzahlen für Inhalte mit bösartigen Links auswirkt, aber wir sind derzeit nicht in der Lage, die Größenordnung dieser Unterschätzung rückwirkend zu bewerten. Daher stellen die Zahlen, die derzeit im Bericht zur Durchsetzung der Gemeinschaftsstandards angezeigt werden, eine Mindestschätzung sowohl der Inhalte, gegen die Maßnahmen ergriffen wurden, als auch der proaktiven Erkennungsrate für den betroffenen Zeitraum dar. Updates zu diesem Problem werden an dieser Stelle veröffentlicht, sobald sie verfügbar sind.

11/2019: Inhalte, gegen die Maßnahmen ergriffen wurden, Inhalte, gegen die proaktive Maßnahmen ergriffen wurden, Inhalte, für die Nutzer*innen Einspruch erhoben haben, sowie Inhalte, die auf Facebook wiederhergestellt wurden
Bei der Veröffentlichung der zweiten Ausgabe des Berichts zur Durchsetzung der Gemeinschaftsstandards im November 2018 haben wir unsere Methode zur Zählung der Art und Weise, wie wir Maßnahmen gegen Inhalte ergreifen, aktualisiert. Wir haben dies getan, damit die Kennzahlen besser widerspiegeln, was auf Facebook passiert, wenn wir Maßnahmen gegen Inhalte ergreifen, die gegen unsere Gemeinschaftsstandards verstoßen. Wenn wir beispielsweise feststellen, dass ein Beitrag mit einem Foto gegen unsere Richtlinien verstößt, möchten wir, dass unsere Kennzahl widerspiegelt, dass wir Maßnahmen in Bezug auf einen einzelnen Inhalt ergriffen haben – und nicht zwei separate Maßnahmen zum Entfernen des Fotos und des Beitrags.
Im Juli 2019 stellten wir jedoch fest, dass die Systeme zur Protokollierung und Zählung dieser Maßnahmen die ergriffenen Maßnahmen nicht korrekt protokollierten. Dies lag größtenteils daran, dass mehrere Maßnahmen, die innerhalb weniger Millisekunden stattfinden, gezählt werden mussten und keine der einzelnen Maßnahmen übersehen oder überbewertet werden durften. Da sich unser Protokollierungssystem für Messzwecke von den Vorgängen zur Durchsetzung unserer Richtlinien unterscheidet, hatte das Problem mit unserer Zurechnung keinen Einfluss darauf, wie wir unsere Richtlinien durchsetzten oder wie wir die Menschen über diese Maßnahmen informierten; es wirkte sich lediglich darauf aus, wie wir die von uns ergriffenen Maßnahmen zählten. Sobald wir dieses Problem entdeckt hatten, arbeiteten wir daran, es zu beheben, alle zuvor geteilten fehlerhaften Kennzahlen zu identifizieren und strengere Kontrollen in unseren Prozessen zu etablieren, um die Genauigkeit unserer Zurechnungsmethoden sicherzustellen. Insgesamt haben wir festgestellt, dass dieses Problem sich auf die Zahlen auswirkte, die wir zuvor für Inhalte, gegen die Maßnahmen ergriffen wurden, die proaktive Erkennungsrate, Inhalte, für die Einspruch erhoben wurde, sowie wiederhergestellte Inhalte für Q3 2018, Q4 2018 und Q1 2019 veröffentlicht hatten.
Die vierte Ausgabe des Berichts zur Durchsetzung der Gemeinschaftsstandards enthält die korrekten Kennzahlen für die betroffenen Quartale, und die oben verlinkte Tabelle enthält die zuvor gemeldeten Kennzahlen und ihre Korrekturen.

Meta
Richtlinien
GemeinschaftsstandardsMeta-WerbestandardsWeitere RichtlinienSo wird Meta immer besserAltersgerechte Inhalte

Funktionen
Unser Ansatz für gefährliche Organisationen und PersonenUnser Ansatz für die OpioidkriseUnser Ansatz für WahlenUnser Ansatz für FalschmeldungenUnser Ansatz für berichtenswerte InhalteUnser Ansatz für das Ranking im Facebook-FeedUnser Ansatz bei der Erläuterung des RankingsBarrierefreiheit bei Meta

Recherchetools
Content-Bibliothek und Content-Bibliotheks-APITools der WerbebibliothekAndere Recherchetools und Datensätze

Durchsetzung
Erkennen von VerstößenErgreifen von Maßnahmen

Governance
Governance-InnovationenDas Oversight Board im ÜberblickWie man beim Oversight Board Einspruch einlegtFälle des Oversight BoardsEmpfehlungen des Oversight BoardsEinrichtung des Oversight BoardsOversight Board: Weitere häufig gestellte FragenMetas halbjährliche Updates zum Oversight BoardErfassung der Arbeit des Oversight Boards

Sicherheit
Unterbrechungen aufgrund von BedrohungenSicherheitsbedrohungenBerichte zu Bedrohungen

Berichte
Bericht zur Durchsetzung der GemeinschaftsstandardsGeistiges EigentumBehördenanfragen nach Nutzer*innendatenSperrungen von Inhalten auf der Grundlage des vor Ort geltenden RechtsInternetunterbrechungenWidely Viewed Content ReportRegulatorische und andere Transparenzberichte

Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Richtlinien
Gemeinschaftsstandards
Meta-Werbestandards
Weitere Richtlinien
So wird Meta immer besser
Altersgerechte Inhalte
Funktionen
Unser Ansatz für gefährliche Organisationen und Personen
Unser Ansatz für die Opioidkrise
Unser Ansatz für Wahlen
Unser Ansatz für Falschmeldungen
Unser Ansatz für berichtenswerte Inhalte
Unser Ansatz für das Ranking im Facebook-Feed
Unser Ansatz bei der Erläuterung des Rankings
Barrierefreiheit bei Meta
Recherchetools
Content-Bibliothek und Content-Bibliotheks-API
Tools der Werbebibliothek
Andere Recherchetools und Datensätze
Durchsetzung
Erkennen von Verstößen
Ergreifen von Maßnahmen
Governance
Governance-Innovationen
Das Oversight Board im Überblick
Wie man beim Oversight Board Einspruch einlegt
Fälle des Oversight Boards
Empfehlungen des Oversight Boards
Einrichtung des Oversight Boards
Oversight Board: Weitere häufig gestellte Fragen
Metas halbjährliche Updates zum Oversight Board
Erfassung der Arbeit des Oversight Boards
Sicherheit
Unterbrechungen aufgrund von Bedrohungen
Sicherheitsbedrohungen
Berichte zu Bedrohungen
Berichte
Bericht zur Durchsetzung der Gemeinschaftsstandards
Geistiges Eigentum
Behördenanfragen nach Nutzer*innendaten
Sperrungen von Inhalten auf der Grundlage des vor Ort geltenden Rechts
Internetunterbrechungen
Widely Viewed Content Report
Regulatorische und andere Transparenzberichte
Deutsch
DatenschutzrichtlinieNutzungsbedingungenCookies
Meta
Transparency Center
Richtlinien
Durchsetzung
Sicherheit
Funktionen
Governance
Recherchetools
Berichte
Deutsch