Richtlinien, die festlegen, was in der Facebook-App gestattet ist und was nicht.
Richtlinien, die festlegen, was in der Instagram-App gestattet ist und was nicht.
Richtlinien für Werbeinhalte und Business-Assets.
Weitere Richtlinien, die für Meta-Technologien gelten.
So aktualisieren wir unsere Richtlinien, messen wir Ergebnisse, arbeiten wir mit anderen zusammen und leisten vieles mehr.
Wie wir koordinierte, bösartige Netzwerke entfernen, um die Menschen zu schützen, die unsere Dienste nutzen.
Bedrohungen, denen wir weltweit nachgehen und entgegenwirken.
Sicherheitsbezogene Informationen zu den bösartigen Netzwerken, die wir seit 2017 entfernt haben.
So unterstützen wir Communities angesichts der Opioidkrise.
So tragen wir dazu bei, Einmischung zu verhindern, Menschen zum Wählen zu befähigen und vieles mehr zu ermöglichen.
So arbeiten wir mit unabhängigen Faktenprüfern und anderen zusammen, um Falschmeldungen zu identifizieren und diesbezüglich Maßnahmen zu ergreifen.
So prüfen wir Inhalte auf ihren Nachrichtenwert.
So reduzieren wir problematische Inhalte im News Feed.
So entwickeln wir KI-Systeme
Umfassender Zugriff auf öffentliche Daten von Facebook und Instagram
Umfassende, durchsuchbare Datenbank aller Werbeanzeigen, die aktuell in Meta-Technologien geschaltet werden
Weitere Tools für eine ausführliche Suche in Meta-Technologien und -Programmen
Ein vierteljährlicher Bericht darüber, wie gut uns die Durchsetzung unserer Richtlinien in der Facebook-App und auf Instagram gelingt.
Bericht darüber, wie wir Personen helfen, ihr geistiges Eigentum zu schützen.
Bericht über Behördenanfragen nach Nutzerdaten.
Bericht über Sperrungen von Inhalten, die uns wegen Verstoßes gegen vor Ort geltendes Recht gemeldet werden.
Bericht über absichtliche Beeinträchtigungen des Internets, die die Fähigkeit der Nutzer einschränken, auf das Internet zuzugreifen.
Ein vierteljährlicher Bericht darüber, was sich die Menschen auf Facebook ansehen, darunter Inhalte, die im Quartal am weitesten verbreitet waren.
Lade aktuelle und frühere regulatorische Berichte für Facebook und Instagram herunter.
Änderungsprotokoll
Änderungsprotokoll
Aktuelle Version
Wir sind davon überzeugt, dass die Menschen sich freier äußern und miteinander kommunizieren, wenn sie nicht dafür angegriffen werden, wer sie sind. Darum lassen wir Hassrede auf Facebook nicht zu. Hassrede schafft ein Umfeld der Einschüchterung und Ausgrenzung und kann in gewissen Fällen Gewalt in der Offline-Welt fördern.
Wir definieren Hassrede als direkten Angriff auf Personen – und nicht auf Konzepte oder Institutionen – aufgrund geschützter Eigenschaften: ethnische Zugehörigkeit, nationale Herkunft, Behinderung, religiöse Zugehörigkeit, Kaste, sexuelle Orientierung, Geschlecht, Geschlechtsidentität und ernsthafte Erkrankung. Wir definieren Angriffe als gewalttätige oder menschenverachtende Sprache, schädliche Stereotypisierung, Aussagen über Minderwertigkeit, Ausdrücke der Verachtung, der Abscheu oder Ablehnung, Beschimpfungen oder Aufrufe, Personen auszugrenzen oder zu isolieren. Außerdem verbieten wir die Verwendung schädlicher Stereotypen, die wir als entmenschlichende Vergleiche definieren, die in der Vergangenheit verwendet wurden, um bestimmte Gruppen anzugreifen, einzuschüchtern oder auszugrenzen, und die häufig mit Gewalt in der Offline-Welt in Zusammenhang stehen. Wir erachten Alter als eine geschützte Eigenschaft, wenn zusammen mit einer anderen geschützten Eigenschaft darauf Bezug genommen wird. Wir schützen auch Flüchtlinge, Migranten, Immigranten und Asylanten vor den schwersten Angriffen, lassen jedoch Kommentare und Kritik an der Einwanderungspolitik zu. In ähnlicher Weise schützen wir in gewissem Umfang Eigenschaften wie den Beruf, wenn zusammen mit einer anderen geschützten Eigenschaft darauf Bezug genommen wird. Aufgrund lokaler Nuancen erachten wir manchmal bestimmte Wörter oder Ausdrücke als häufig stellvertretend für Gruppen mit geschützten Eigenschaften verwendet.
Darüber hinaus verbieten wir den Einsatz von Beleidigungen, die dazu dienen, Menschen auf der Grundlage geschützter Eigenschaften anzugreifen. Uns ist allerdings klar, dass Menschen manchmal Inhalte teilen, die Beleidigungen oder Hassreden anderer enthalten, um dies zu verurteilen oder dafür zu sensibilisieren. Denkbar ist auch, dass Aussagen, einschließlich Beleidigungen, die ansonsten gegen unsere Standards verstoßen würden, auf die eigene Person bezogen oder als Ausdruck von Unterstützung verwendet werden. Unsere Richtlinien sollen diesen Arten von Meinungsäußerung Raum geben, doch dabei müssen die Personen ihre Absicht deutlich machen. Ist die Absicht unklar, wird der Inhalt unter Umständen entfernt.
Stufe 1
Inhalte, die auf eine Person oder Personengruppe (einschließlich aller Gruppen, außer jenen, die als nicht-geschützte Gruppen gelten und die Gewaltverbrechen oder Sexualstraftaten begangen haben oder weniger als die Hälfte einer Gruppe ausmachen) aufgrund ihrer oben aufgeführten geschützten Eigenschaft(en) oder ihres Einwanderungsstatus abzielen und dafür Folgendes einsetzen:
Stufe 2
Inhalte, die auf eine Person oder Personengruppe aufgrund ihrer geschützten Eigenschaft(en) abzielen und dafür Folgendes einsetzen:
Stufe 3
Inhalte, die auf eine Person oder Personengruppe aufgrund ihrer geschützten Eigenschaft(en) abzielen und dafür eines der folgenden Elemente einsetzen:
Inhalte, die Personen negativ beschreiben oder Beleidigungen gegen sie richten, wobei Beleidigung definiert ist als Begriffe, die im Hinblick auf die betroffenen Personen grundsätzlich ein Klima der Ausgrenzung und Einschüchterung aufgrund einer geschützten Eigenschaft schaffen, das häufig daher rührt, dass diese Begriffe einen Bezug zu Diskriminierung, Unterdrückung und Gewalt in der Geschichte aufweisen. Dies ist auch dann der Fall, wenn die Zielperson jemand ist, der nicht der Gruppe mit geschützten Eigenschaften angehört, gegen die die Beleidigung grundsätzlich gerichtet ist.
Folgende Inhalte sind untersagt:
In bestimmten Fällen lassen wir Inhalte zu, die ansonsten gegen die Gemeinschaftsstandards verstoßen würden, wenn wir feststellen, dass der Inhalt satirisch ist. Inhalte werden nur zugelassen, wenn die unzulässigen Elemente des Inhalts persifliert bzw. etwas oder jemand anderem zugeordnet werden, um es, sie oder ihn zu verspotten oder zu kritisieren.
Hier einige Beispiele dafür, wie die Durchsetzung für Facebook-Nutzer aussieht: So sieht es aus, wenn eine Person etwas meldet, das nach ihrer Meinung nicht auf Facebook sein sollte, wenn einer Person mitgeteilt wird, dass sie gegen unsere Gemeinschaftsstandards verstoßen hat, und wenn eine Warnmeldung für bestimmte Inhalte angezeigt wird.
Hinweis: Wir nehmen ständig Verbesserungen vor. Deshalb könnte das, was hier zu sehen ist, im Vergleich zu dem, was wir zurzeit verwenden, nicht mehr ganz aktuell sein.
Prozentualer Anteil der Häufigkeit, mit der Personen unzulässige Inhalte gesehen haben
Anzahl der unzulässigen Inhalte, gegen die wir Maßnahmen ergriffen haben
Prozentualer Anteil der unzulässigen Inhalte, die wir erkannt haben, bevor Nutzer sie gemeldet haben
Anzahl der Inhalte, gegen die Personen Einspruch erhoben haben, nachdem wir Maßnahmen ergriffen hatten
Anzahl der Inhalte, die wir wiederhergestellt haben, nachdem wir zuvor Maßnahmen gegen sie ergriffen hatten
Prozentualer Anteil der Häufigkeit, mit der Personen unzulässige Inhalte gesehen haben
Anzahl der unzulässigen Inhalte, gegen die wir Maßnahmen ergriffen haben
Prozentualer Anteil der unzulässigen Inhalte, die wir erkannt haben, bevor Nutzer sie gemeldet haben
Anzahl der Inhalte, gegen die Personen Einspruch erhoben haben, nachdem wir Maßnahmen ergriffen hatten
Anzahl der Inhalte, die wir wiederhergestellt haben, nachdem wir zuvor Maßnahmen gegen sie ergriffen hatten
Wir haben die Möglichkeit, Posts, Kommentare, Storys, Nachrichten oder anderes zu melden.

Wir helfen Menschen dabei, Dinge zu melden, die ihrer Meinung nach von der Plattform entfernt werden sollten.

Wir bitten die meldenden Personen dann, zu beschreiben, worum es geht. Das hilft uns dabei, Meldungen an die richtigen Stellen weiterzuleiten.

Vergewissere dich, dass alle Angaben korrekt sind, bevor du auf „Senden“ klickst. Es ist wichtig, dass das ausgewählte Problem genau zu dem geposteten Inhalt passt.

Anschließend übermitteln wir die Meldung. Wir sagen auch, was als Nächstes passieren wird.

Wir entfernen Dinge, wenn sie gegen unsere Gemeinschaftsstandards verstoßen, aber du kannst Personen auch nicht mehr folgen, sie blockieren oder als Freund/in entfernen, um zukünftig keine Beiträge mehr zu sehen.

Nach unserer Prüfung des Berichts senden wir dem meldenden Nutzer eine Benachrichtigung.

Im Support-Postfach stellen wir nähere Informationen zu unserer Prüfungsentscheidung bereit. Wir benachrichtigen die jeweiligen Personen darüber und senden ihnen einen entsprechenden Link zu.

Wenn eine Person glaubt, dass unsere Entscheidung falsch ist, kann sie eine weitere Prüfung verlangen.

Nachdem wir den Inhalt erneut geprüft haben, senden wir unsere endgültige Antwort wieder an das Support-Postfach.

Wenn jemand etwas postet, das gegen unsere Regeln verstößt, lassen wir das diese Person wissen.

Wir gehen dann auch auf verbreitete Irrtümer ein und erklären, warum wir in diesem Fall eingeschritten sind.

Wir erklären dem Nutzer in einfachen Worten, was es mit der relevanten Regel auf sich hat.

Wenn die betroffenen Personen mit der Entscheidung nicht einverstanden sind, können sie eine erneute Überprüfung anfordern und weitere Informationen bereitstellen.

Wir stellen klar, was passiert, nachdem die Überprüfung eingereicht wurde.

In News Feed und auf anderen Oberflächen verdecken wir bestimmte Inhalte, damit Menschen selbst entscheiden können, ob sie diese Inhalte sehen möchten.

In diesem Beispiel geben wir mehr Kontext dazu, warum wir das Foto verdeckt haben. Der Kontext enthält Informationen von unabhängigen Faktenprüfern.

Weltweit gelten für alle Facebook-Nutzer dieselben Richtlinien.
Unser globales Team aus über 15.000 Reviewern arbeitet jeden Tag daran, die Facebook-Nutzer zu schützen.
Externe Experten, Wissenschaftler, NGOs und Politiker helfen dabei, die Facebook-Gemeinschaftsstandards mitzugestalten.
Informationen dazu, was du tun kannst, wenn du etwas auf Facebook siehst, das gegen unsere Gemeinschaftsstandards verstößt.