Richtlinien, die festlegen, was in unseren Apps gestattet bzw. nicht gestattet ist.
Richtlinien für Werbeinhalte und Business-Assets.
Weitere Richtlinien, die für Meta-Technologien gelten.
So aktualisieren wir unsere Richtlinien, messen wir Ergebnisse, arbeiten wir mit anderen zusammen und leisten vieles mehr.
Erfahre, wie wir Teenagern helfen, sichere und positive Erlebnisse auf Facebook und Instagram zu haben.
Wie wir koordinierte, bösartige Netzwerke entfernen, um die Menschen zu schützen, die unsere Dienste nutzen.
Bedrohungen, denen wir weltweit nachgehen und entgegenwirken.
Sicherheitsbezogene Informationen zu den bösartigen Netzwerken, die wir seit 2017 entfernt haben.
So gehen wir mit gefährlichen Organisationen und Personen um.
So unterstützen wir Communities angesichts der Opioidkrise.
So tragen wir dazu bei, Einmischung zu verhindern, Menschen zum Wählen zu befähigen und vieles mehr zu ermöglichen.
So arbeiten wir mit unabhängigen Faktenprüfern und anderen zusammen, um Falschmeldungen zu identifizieren und diesbezüglich Maßnahmen zu ergreifen.
So prüfen wir Inhalte auf ihren Nachrichtenwert.
So reduzieren wir problematische Inhalte im News Feed.
So entwickeln wir KI-Systeme
Umfassender Zugriff auf öffentliche Daten von Facebook und Instagram
Umfassende, durchsuchbare Datenbank aller Werbeanzeigen, die aktuell in Meta-Technologien geschaltet werden
Weitere Tools für eine ausführliche Suche in Meta-Technologien und -Programmen
Ein vierteljährlicher Bericht darüber, wie gut uns die Durchsetzung unserer Richtlinien in der Facebook-App und auf Instagram gelingt.
Bericht darüber, wie wir Personen helfen, ihr geistiges Eigentum zu schützen.
Bericht über Behördenanfragen nach Nutzerdaten.
Bericht über Sperrungen von Inhalten, die uns wegen Verstoßes gegen vor Ort geltendes Recht gemeldet werden.
Bericht über absichtliche Beeinträchtigungen des Internets, die die Fähigkeit der Nutzer einschränken, auf das Internet zuzugreifen.
Ein vierteljährlicher Bericht darüber, was sich die Menschen auf Facebook ansehen, darunter Inhalte, die im Quartal am weitesten verbreitet waren.
Lade aktuelle und frühere regulatorische Berichte für Facebook und Instagram herunter.
JUN 12, 2023
Am 2. März 2021 wählte das Oversight Board einen Fall aus, gegen den ein Nutzer Einspruch erhoben hat. Es ging dabei um einen Kommentar, der ein Meme enthielt, mit dem dargestellt wurde, wie sich die Türkei zwischen „The Armenian Genocide is a lie“ (Der Völkermord an den Armeniern ist eine Lüge) und „The Armenians were terrorists who deserved it“ (Die Armenier waren Terroristen und haben es verdient) entscheiden musste.
Meta löschte den Inhalt mit der Begründung, dass er gegen unsere Richtlinie zu Hassrede verstoße, wie in den Facebook-Gemeinschaftsstandards beschrieben. Hassrede schafft ein Umfeld der Einschüchterung und Ausgrenzung und kann offline Gewalt fördern. Deshalb lassen wir Hassrede auf Facebook nicht zu, auch nicht in einem satirischen Kontext.
Wir begrüßen die heutige Entscheidung des Oversight Boards zu diesem Fall. Meta ist der Entscheidung des Boards unverzüglich nachgekommen und hat den Inhalt wiederhergestellt.
Gemäß der Satzung werden wir auch eine Überprüfung von identischen Inhalten mit parallelem Kontext einleiten. Wenn wir sowohl die technischen als auch die betrieblichen Kapazitäten haben, Maßnahmen in Bezug auf diese Inhalte zu ergreifen, werden wir dies umgehend tun. Weitere Informationen darüber, wie wir die Entscheidungen des Boards umsetzen werden, finden Sie in unserem Newsroom-Beitrag. Wir werden diesen Beitrag erneut aktualisieren, sobald weitere Maßnahmen zu identischen Inhalten mit vergleichbarem Kontext ergriffen werden.
Nachdem wir die Entscheidung und Empfehlung des Boards geprüft haben, werden wir diesen Beitrag aktualisieren.
Am 17. Juni 2021 reagierte Meta auf die Empfehlung des Boards in diesem Fall. Wir verpflichten uns, bezüglich der Empfehlung Maßnahmen zu ergreifen.
Meta sollte technische Vorkehrungen treffen, um sicherzustellen, dass sich Hinweise an die Nutzer*innen auf den vom Unternehmen durchgesetzten Gemeinschaftsstandard beziehen.
Unsere Verpflichtung: Wir stimmen zu, dass es wichtig ist, dass betroffene Menschen zutreffende Informationen dazu bekommen, warum wir ihre Inhalte entfernt haben. Wir prüfen derzeit, wie wir dabei am besten vorgehen können.
Überlegungen: Unsere Inhaltsmoderatoren bewerten einen Inhalt auf Grundlage sämtlicher unserer Gemeinschaftsstandards. Wird festgestellt, dass Inhalte gegen unsere Gemeinschaftsstandards verstoßen, wählen Inhaltsmoderatoren jeweils aus, gegen welche Richtlinie verstoßen wurde. Aktuell können sie allerdings nur eine Art des Verstoßes auswählen, auch dann, wenn gegen mehrere Gemeinschaftsstandards verstoßen wurde. Wenn ein Inhaltsmoderator nach einem Einspruch feststellt, dass ein betreffender Inhalt aufgrund eines Verstoßes gegen einen anderen Gemeinschaftsstandards markiert werden sollte, wählt der Überprüfer einen entsprechenden neuen Verstoß aus.
Wir müssen uns mit der Frage befassen, welche Vorteile es für Nutzer hätte, wenn sie über mehrere Verstöße und mehrere Einspruchsmöglichkeiten in Bezug auf einen einzigen Inhalt informiert werden würden. Auch gehen mit einer Veränderung der technischen Fähigkeiten, des Prozesses und der Schulung dazu, wie Inhaltsmoderatoren Richtlinienverstöße für Inhalte auswählen, sowie mit den möglicherweise darauf folgenden Einsprüchen neue betriebliche Komplexitäten einher, die wir bewerten müssen.
Nächste Schritte: Wir beabsichtigen, unsere Bewertung bis zum Ende des Jahres abzuschließen und dann von unseren Fortschritten berichten zu können.
Meta sollte die Satire-Ausnahme, die den Nutzern derzeit nicht mitgeteilt wird, in die öffentliche Formulierung des Gemeinschaftsstandards zu Hassrede aufnehmen.
Unsere Verpflichtung: Wir werden dem Gemeinschaftsstandard Angaben dazu hinzufügen, wann wir Satire bei unserer Bewertung kontextspezifischer Entscheidungen berücksichtigen.
Überlegungen: Durch diese Änderung werden Teams in die Lage versetzt, bei der Bewertung potenzieller Verstöße gegen unsere Richtlinien zu Hassrede den Gesichtspunkt der Satire zu berücksichtigen.
Nächste Schritte: Wir beabsichtigen, diese Aktualisierung bis zum Ende des Jahres abzuschließen.
Meta sollte sicherstellen, dass es über angemessene Verfahren verfügt, um satirische Inhalte und den relevanten Kontext richtig zu bewerten, unter anderem indem es den Inhaltsmoderatoren zusätzliche Ressourcen zur Verfügung stellt.
Unsere Verpflichtung: Wir verpflichten uns, es regionalen und Eskalationsteams mit einem neuen Framework zu Satire zu ermöglichen, Inhalte auf diesen Gesichtspunkt hin zu prüfen. Wir prüfen außerdem, wie sich eine solche Bewertung im großen Maßstab durchführen lässt.
Überlegungen: Wie wir in unserer Antwort zu Empfehlung Nr. 2 gesagt haben, werden wir dem Gemeinschaftsstandard Angaben dazu hinzufügen, wann wir Satire bei unserer Bewertung kontextspezifischer Entscheidungen berücksichtigen. In diesem Zusammenhang werden wir unter anderem ein neues Framework zu Satire implementieren, das unsere Teams nutzen werden, um mögliche satirebezogene Ausnahmen zu bewerten. Die regionalen Teams werden Bewertungen nach dem Gesichtspunkt der Satire durchführen und relevante Inhalte an spezialisierte Teams weiterleiten können, sollte eine weitere Prüfung erforderlich sein.
Wir haben bereits mit der Entwicklung eines Frameworks für Bewertungen von Humor und Satire begonnen und räumen dessen Fertigstellung gemäß der Empfehlung des Boards Priorität ein. Dazu haben wir über 20 akademische Experten, Journalisten, Komiker, Vertreter von Satiremagazinen und Fürsprecher der Meinungsfreiheit hinzugezogen. Von diesen Experten wurde angemerkt, dass Humor und Satire von verschiedenen Menschen und in verschiedenen Kulturen unterschiedlich wahrgenommen werden. Dies unterstreicht die Bedeutung eines manuellen Reviews durch Personen, die den jeweiligen kulturellen Kontext kennen. Die Experten erklärten uns außerdem, dass die Absicht eine zentrale Bedeutung hat, jedoch mitunter schwer zu bestimmen sein kann. Außerdem wird bei echter Satire nicht „nach unten“ ausgeteilt: Das Zielobjekt von humoristischen oder satirischen Inhalten gibt häufig einen Hinweis auf die dahinterstehende Absicht. Wenn ein Inhalt einfach nur abfällig und nicht vielschichtig, komplex oder subversiv ist, handelt es sich nicht um Satire. Humor kann sogar eine effektive Möglichkeit sein, hasserfülltes Gedankengut zu verbreiten.
Angesichts der kontextabhängigen Natur von Satire sind wir nicht unmittelbar in der Lage, eine entsprechende Art von Bewertung oder zusätzliche Beratung für unsere Inhaltsmoderatoren im großen Maßstab durchzuführen bzw. anzubieten. Wir brauchen Zeit, um die möglichen Kompromisse zwischen diesen beiden Vorgehensweisen zu bewerten: Mehr Inhalte, bei denen es sich um Satire handeln könne, identifizieren und eskalieren, oder Eskalationen für die am schwersten wiegenden Richtlinien priorisieren, was die Menge der eskalierten Inhalte steigern und die für die Überprüfungen durch unsere Inhaltsmoderatorinnen benötigte Zeit verlängern würde.
Nächste Schritte: Wir werden das neue Framework zu Satire fertigstellen, das von regionalen und Eskalationsteams genutzt werden wird, um Inhalte nach dem Gesichtspunkt der Satire zu überprüfen. Wir prüfen derzeit, wie eine solche Überprüfung im großen Maßstab durchgeführt werden könnte. Wir beabsichtigen, unsere Bewertung bis zum Ende des Jahres abzuschließen und dann von unseren Fortschritten berichten zu können.
Facebook sollte den Nutzern die Möglichkeit geben, in ihrem Einspruch anzugeben, dass ihr Inhalt unter eine der Ausnahmen von der Richtlinie zu Hassrede fällt.
Unsere Verpflichtung: Wir werden weiter daran arbeiten, dass Nutzer im Rahmen des Einspruchsverfahrens mehr Informationen zu ihren Einsprüchen bereitstellen können. Unter anderem sollen sie angeben können, wenn ihr Einspruch ihrer Meinung nach unter mehrere Richtlinienausnahmen fällt. Auf Grundlage dieser Empfehlung prüfen wir, wie wir es Nutzern am besten ermöglichen können, anzugeben, dass ihre Inhalte unter eine der Ausnahmen der Richtlinie zu Hassrede fallen.
Überlegungen: Wir arbeiten fortlaufend an Verbesserungen unseres Einspruchsverfahrens – sowohl zugunsten der Nutzererfahrung als auch der Genauigkeit der Durchsetzung. Wir sind dabei, nach Wegen zu suchen, wie wir es Nutzern ermöglichen können, bei einem Einspruch zusätzliche Informationen bereitzustellen. Basierend auf der Empfehlung des Boards werden wir nun prüfen, ob es möglich sein sollte, eine bestimmte Richtlinienausnahme gemäß den Gemeinschaftsstandards zu nennen, unter die der Inhalt eines Nutzers seiner Meinung nach fällt.
Wenn wir die Menge der Informationen, die unsere Teams im Rahmen des Einspruchverfahrens prüfen müssen, erhöhen, würde dies betriebliche Herausforderungen mit sich bringen. Wir werden Zeit brauchen, um zu bewerten, ob der zusätzliche Kontext zur Genauigkeit der Überprüfung und zur Qualität der Nutzererfahrung beiträgt. Wir werden außerdem berücksichtigen müssen, inwieweit zusätzlicher Kontext die Überprüfung verlangsamt und somit die Anzahl der Einsprüche, die wir effizient prüfen können, begrenzt.
Nächste Schritte: Wir beabsichtigen, unsere Bewertung bis zum Ende des Jahres abzuschließen und dann von unseren Fortschritten berichten zu können.
Meta sollte sicherstellen, dass Einsprüche, die auf Ausnahmen von Richtlinien basieren, vorrangig von Mitarbeitern überprüft werden.
Unsere Verpflichtung: Wir brauchen Zeit, um die Berücksichtigung von Richtlinienausnahmen und anderer von Nutzern bereitgestellten Kontextinformationen als Faktoren für die Priorisierung von Einsprüchen für manuelle Reviews zu bewerten.
Überlegungen: Derzeit priorisieren wir Einsprüche für manuelle Reviews auf Grundlage verschiedener Faktoren. Unter anderem berücksichtigen wir, wann der Beitrag entfernt wurde, von wie vielen Nutzern er gesehen wurde und wie sicher wir uns sind, dass unsere ursprüngliche Entscheidung richtig war. Wir arbeiten ständig an einer Verbesserung unserer Strategien für die schnelle und angemessene Reaktion auf Einsprüche. Wie wir in unserer Antwort auf Empfehlung 4 erklärt haben, prüfen wir derzeit, wie wir es Nutzern ermöglichen können, bei Einsprüchen zusätzliche Informationen bereitzustellen. Diese zusätzlichen Informationen könnten wir wiederum möglicherweise nutzen, um die Qualität unseres Einspruchsverfahrens zu verbessern.
Wird ein bestimmter Einspruch priorisiert, wird er schneller überprüft. Das bedeutet jedoch nicht unbedingt, dass die Prüfung deswegen zu einem zutreffenderen Ergebnis kommt. Wir brauchen Zeit, um zu analysieren, wie sich Änderungen an unserem Einspruchsverfahren und weitere von Nutzern bereitgestellte Kontextinformationen auf die Geschwindigkeit und Genauigkeit solcher im großen Maßstab durchgeführten Überprüfungen auswirken würden.
Nächste Schritte: Wir beabsichtigen, unsere Bewertung bis zum Ende des Jahres abzuschließen und dann von unseren Fortschritten berichten zu können.