Diese Kennzahl gibt den Prozentsatz aller Inhalte oder Konten an, die wir erkannt und bei denen wir MaĆnahmen ergriffen haben, bevor Nutzer*innen sie uns gemeldet haben. Wir verwenden diese Kennzahl als Indikator dafür, wie effektiv wir VerstƶĆe erkennen.
Unsere Investitionen in maschinelles Lernen leisten einen entscheidenden Beitrag zur schnelleren Erkennung.
Wir ergƤnzen maschinelles Lernen durch ein Team aus geschulten Expert*innen, die potenziell unzulƤssige Inhalte überprüfen und ggf. MaĆnahmen ergreifen.
Unsere Erkennungsrate für potenziell unzulƤssige Inhalte ist bei einigen VerstƶĆen hoch, d.Ā h. wir erkennen die meisten Inhalte und ergreifen MaĆnahmen, bevor Nutzer*innen sie uns melden. Dies ist insbesondere dann der Fall, wenn Technologie für maschinelles Lernen, die wir entwickelt haben, automatisch Inhalte erkennt, die gegen unsere Standards verstoĆen kƶnnten.
Eine derartige Technologie ist sehr vielversprechend, aber es wird noch Jahre dauern, bis sie für alle Arten von VerstƶĆen effektiv ist. Es bestehen beispielsweise immer noch EinschrƤnkungen bezüglich der FƤhigkeit, Kontext und Nuancen zu verstehen, insbesondere bei textbasierten Inhalten. Dies schafft zusƤtzliche Herausforderungen für die proaktive Erkennung bestimmter VerstƶĆe.
Die Kennzahl kann aufgrund externer Faktoren nach oben oder unten schwanken. Ein Beispiel hierfür ist ein Cyberangriff, bei dem Spammer*innen 10Ā Millionen BeitrƤge mit derselben schƤdlichen URL teilen. Wenn wir die schƤdliche URL entdeckt hƤtten, bevor ein*e Nutzer*in sie uns gemeldet hat, würde die proaktive Erkennungsrate wƤhrend des Cyberangriffs steigen und danach wieder sinken, selbst wenn unsere Detektionstechnologien sich in diesem Zeitraum nicht verƤndert haben. Diese Kennzahl kann auch durch Ćnderungen unserer Prozesse und Tools steigen oder sinkenĀ ā so kƶnnte sie steigen, wenn sich unsere Detektionstechnologien verbessern, oder auch sinken, wenn sich unsere Nutzer*innenmeldungen verbessern und wir dadurch nicht so stark auf proaktive Erkennung angewiesen sind.
Da die Kennzahl auf der Menge der Inhalte basiert, gegen die MaĆnahmen ergriffen wurden, gelten viele der gleichen Ćberlegungen. Unsere proaktive Erkennungsrate spiegelt nicht wider, wie lange wir brauchen, um unzulƤssige Inhalte zu erkennen, oder wie oft sie vor der Erkennung angesehen wurden. Sie gibt auch nicht an, wie viele VerstƶĆe wir überhaupt nicht erkannt haben oder wie oft die entsprechenden Inhalte angesehen wurden. Und obwohl der prozentuale Anteil der Inhalte, die wir proaktiv erkennen, sehr hoch sein kannĀ ā in einigen Kategorien liegt er bei 99Ā %Ā ā, kann selbst der verbleibende geringe Prozentsatz erhebliche Auswirkungen auf die Menschen haben.
Wie wir unsere proaktive Erkennungsrate berechnen
Wir messen diesen Prozentsatz folgendermaĆen: Die Anzahl der Inhalte, die wir gefunden und gegen die wir MaĆnahmen ergriffen haben, bevor Facebook- oder Instagram-Nutzer*innen sie gemeldet haben, geteilt durch die Gesamtzahl der Inhalte, gegen die wir MaĆnahmen ergriffen haben.
Bei gefƤlschten Konten auf Facebook berechnen wir diese Kennzahl als den Prozentsatz der deaktivierten Fake Accounts auf Facebook, die wir als solche erkannt und gegen die wir MaĆnahmen ergriffen haben, noch bevor Nutzer*innen sie uns gemeldet haben. Sie wird folgendermaĆen berechnet: Die Anzahl der deaktivierten Konten, die wir erkannt und gegen die wir MaĆnahmen ergriffen haben, bevor Nutzer*innen sie gemeldet haben, geteilt durch die Gesamtzahl aller Konten, die deaktiviert wurden, da sie gefƤlscht waren.
Achtung
Wir berechnen unsere proaktive Erkennungsrate, indem wir die Meldungen von Nutzer*innen konsequent den Inhalten zuordnen. Wenn beispielsweise jemand eine Seite meldet und wir wƤhrend der Ćberprüfung der Seite einige unzulƤssige Inhalte auf dieser Seite finden und MaĆnahmen dagegen ergreifen, würden wir dies als erfolgte proaktive MaĆnahme gegen den Inhalt in unseren Bericht aufnehmen (es sei denn, es lƤgen konkrete zusƤtzliche Nutzer*innenmeldungen hierzu vor).