Wir messen die Anzahl der Inhalte (wie Beiträge, Fotos, Videos oder Kommentare) oder Konten, bei denen wir Maßnahmen wegen Verstößen gegen unsere Standards ergreifen. Diese Kennzahl zeigt die Dimension unser Durchsetzungsaktivität. Maßnahmen ergreifen könnte u. a. heißen, dass wir einen Inhalt von Facebook oder Instagram entfernen, Fotos oder Videos mit einem Warnhinweis verdecken, wenn sie für bestimmte Zielgruppen verstörend sein könnten, oder dass wir Konten deaktivieren. Falls wir Inhalte an die Strafverfolgungsbehörden eskalieren, zählen wir dies nicht zusätzlich.
Es könnte verlockend sein, unsere Kennzahl für Inhalte, gegen die wir Maßnahmen ergriffen haben, als Indikator dafür anzusehen, wie effektiv wir Verstöße erkennen oder wie sich diese Verstöße auf unsere Gemeinschaft auswirken. Die Menge der Inhalte, gegen die wir Maßnahmen ergreifen, ist jedoch nur ein Teil des großen Ganzen. Sie spiegelt nicht wider, wie lange es gedauert hat, einen Verstoß zu erkennen oder wie oft Nutzer*innen diesen Verstoß gesehen haben, während er auf Facebook oder Instagram war.
Diese Kennzahl kann aufgrund externer Faktoren, über die wir keine Kontrolle haben, nach oben oder unten schwanken. Nehmen wir beispielsweise einen Cyberangriff, in dessen Verlauf Spammer*innen 10 Millionen Beiträge mit derselben schädlichen URL teilen. Nach der Entdeckung der URL entfernen wir die 10 Millionen Beiträge. Es würden als Inhalte, gegen die wir Maßnahmen ergriffen haben, 10 Millionen Inhalte gemeldet – also ein gewaltiger Anstieg. Aber diese Zahl sagt nicht unbedingt aus, dass wir besser in der Bekämpfung von Spam geworden sind, sondern eher, dass Spammer*innen in dem Monat beschlossen haben, Facebook mit primitivem Spam anzugreifen, was leicht zu erkennen war. Die Zahl der Inhalte, gegen die wir Maßnahmen ergriffen haben, gibt auch keinen Hinweis darauf, wie viel von diesem Spam sich tatsächlich auf Nutzer*innen ausgewirkt hat: Die Menschen könnten ihn nur wenige Male oder einige hundert oder sogar tausend Male gesehen haben. (Diese Information wird in der Verbreitung erfasst.) Nach dem Cyberangriff könnten die Inhalte, gegen die wir Maßnahmen ergriffen haben, dramatisch sinken, selbst wenn sich unsere vorausschauende Erkennung verbessert.
Ein Inhalt kann alles Mögliche sein: zum Beispiel ein Post, ein Foto, ein Video oder ein Kommentar.
So zählen wir Inhalte und Maßnahmen
Die Methodik, mit der wir Inhalte zählen, ist komplex und hat sich mit der Zeit weiterentwickelt. Im Juli 2018 haben wir unsere Methodik aktualisiert, um klarzustellen, bei wie vielen einzelnen Inhalten wir Maßnahmen ergriffen haben, weil sie gegen unsere Richtlinien verstoßen haben, und wir werden unsere Methodik im Rahmen unseres Engagements, möglichst genaue und bedeutsame Kennzahlen zu liefern, weiter ausbauen und verbessern. Insgesamt möchten wir die Gesamtzahl der Inhalte, gegen die wir wegen Verstößen gegen unsere Richtlinien Maßnahmen ergreifen, möglichst akkurat darstellen.
Es gibt einige Unterschiede in der Art und Weise, wie wir Inhalte auf Facebook und Instagram zählen.
Auf Facebook zählt ein Beitrag ohne Foto oder Video oder ein einzelnes Foto oder Video als ein Inhalt. Das bedeutet, dass alle folgenden Elemente im Falle ihrer Entfernung jeweils als ein unzulässiger Inhalt gezählt werden: ein Beitrag mit einem Foto, das unzulässig ist; ein Beitrag mit Text, der unzulässig ist; und ein Beitrag mit Text und einem Foto, von dem eines oder beide unzulässig sind.
Wenn ein Beitrag auf Facebook mehrere Fotos oder Videos enthält, zählen wir jedes Foto oder Video als einen Inhalt. Wenn wir z. B. zwei unzulässige Fotos aus einem Facebook-Beitrag mit vier Fotos entfernen, zählen wir dies als zwei Inhalte, gegen die wir Maßnahmen ergriffen haben: einen für jedes entfernte Foto. Wenn wir den gesamten Beitrag entfernen, zählen wir auch den Beitrag selbst. Wenn wir also z. B. einen Facebook-Beitrag mit vier Fotos entfernen, würden wir dies als fünf Inhalte zählen, gegen die wir Maßnahmen ergriffen haben: einen für jedes Foto und einen für den Beitrag. Wenn wir nur einige der angehängten Fotos und Videos aus einem Beitrag entfernen, zählen wir nur diese Inhalte.
Auf Instagram entfernen wir den gesamten Beitrag, wenn er unzulässigen Inhalt enthält, und wir zählen dies als einen Inhalt, gegen den wir Maßnahmen ergriffen haben, unabhängig davon, wie viele Fotos oder Videos der Beitrag enthält.
Manchmal wird festgestellt, dass ein Inhalt gegen mehrere Standards verstößt. Für die Messung ordnen wir die Maßnahme nur einem Primärverstoß zu. In der Regel ist dies der Verstoß gegen den strengsten Standard. In anderen Fällen fordern wir den*die Prüfer*in auf zu entscheiden, welches der primäre Grund für den Verstoß ist.
So kennzeichnen wir Verstöße
Jedes Mal, wenn wir Maßnahmen gegen einen Inhalt ergreifen, kennzeichnen wir den Inhalt mit der Richtlinie, gegen die er verstoßen hat. Bei ihrer Überprüfung der Meldungen entscheiden die Prüfer*innen zunächst, ob das Material gegen unsere Richtlinien verstößt oder nicht. Wenn sie entscheiden, dass dies der Fall ist, kategorisieren sie die Art des Verstoßes.
In der Vergangenheit haben wir nicht von unseren Prüfer*innen verlangt, bei ihrer Entscheidungsfindung die Verstöße zu kategorisieren. Stattdessen haben wir uns auf die Informationen verlassen, die Nutzer*innen uns bei Einreichung ihrer Meldungen bereitgestellt haben. 2017 haben wir unseren Überprüfungsprozess dahingehend erweitert, dass er detailliertere Informationen dazu erfasst, warum die Prüfer*innen einen Inhalt entfernt haben. Dadurch erhalten wir genauere Kennzahlen. Außerdem haben wir unsere Erkennungstechnologie verbessert, sodass sie Verstöße kategorisiert, sobald diese erkannt, gekennzeichnet oder entfernt werden. Dabei werden dieselben Kategorien wie bei den Entscheidungen unserer Prüfer*innen verwendet.
Um zu erfassen, gegen wie viele Inhalte wir aufgrund von bestimmten Standardverstößen vorgehen, müssen wir den Verstoß bei jeder ergriffenen Maßnahme kategorisieren.
Konten auf Facebook, gegen die wir Maßnahmen ergreifen, weil sie gefälscht sind
Für gefälschte Konten melden wir „Konten, gegen die Maßnahmen ergriffen wurden“, im Gegensatz zu „Inhalte, gegen die Maßnahmen ergriffen wurden“. „Konten, gegen die Maßnahmen ergriffen wurden“ gibt die Anzahl an Konten an, die wir deaktivieren, weil sie gefälscht sind.
Achtung
Zu den Inhalten, gegen die wir Maßnahmen ergriffen haben, und den Konten, gegen die wir Maßnahmen ergriffen haben, zählen wir nicht die Fälle, in denen wir verhindern, dass Inhalte oder Konten überhaupt erstellt werden. Dazu gehört, wenn wir erkennen, dass Spammer*innen versuchen, Beiträge mit hoher Frequenz zu posten, oder wenn wir die Erstellung eines gefälschten Kontos aufdecken. Wenn wir diese Verhinderungen einbeziehen würden, würde dies die Zahlen für deaktivierte gefälschte Konten und entfernte Spam-Inhalte drastisch erhöhen (wahrscheinlich täglich um Millionen).
Wenn wir bei URLs Maßnahmen durchsetzen, entfernen wir alle aktuellen oder zukünftigen Inhalte, die diese Links enthalten. Wir messen, gegen wie viele Inhalte wir Maßnahmen ergriffen haben, basierend darauf, ob ein*e Nutzer*in versucht, diesen Inhalt auf Facebook anzuzeigen.
So messen wir Maßnahmen, die wir gegen Konten, Seiten, Gruppen und Veranstaltungen ergriffen haben
In Nutzer*innenkonten, auf Seiten, in Gruppen oder Veranstaltungen auf Facebook können große Mengen an Inhalten bestehen. Jedes dieser Objekte kann vollständig gegen unsere Richtlinien verstoßen, wenn es bestimmte Inhalte oder Verhaltensweisen aufweist. Wir können in der Regel feststellen, dass ein Konto, eine Seite, eine Gruppe oder eine Veranstaltung gegen unsere Standards verstößt, ohne alle enthaltenen Inhalte zu überprüfen. Wenn wir ein Konto oder eine Seite, Gruppe oder Veranstaltung deaktivieren, werden sämtliche darin enthaltenen Inhalte automatisch für Nutzer*innen unzugänglich.
In den im Bericht zur Durchsetzung der Gemeinschaftsstandards enthaltenen Kennzahlen zählen wir nur die Inhalte in Konten, Seiten, Gruppen oder Veranstaltungen, die wir bei unseren Überprüfungen dieser Objekte als unzulässig eingestuft und gegen die wir explizit Maßnahmen ergriffen haben. Wir zählen keine Inhalte, die automatisch entfernt werden, wenn wir ein Konto, eine Seite, Gruppe oder Veranstaltung deaktivieren, das/die den Inhalt enthielt.
Abgesehen von gefälschten Konten auf Facebook enthält dieser Bericht derzeit keine kontenbezogenen Kennzahlen für Verstöße. Dieser Bericht enthält auch keine Kennzahlen für Seiten, Gruppen oder Veranstaltungen, gegen die wir wegen Verstößen Maßnahmen ergriffen haben – nur Inhalte innerhalb dieser Objekte.