So investiert Meta in Technologie

AKTUALISIERT 19.01.2022
Wir investieren in künstliche Intelligenz, um unzulässige Inhalte besser erkennen und die Nutzer*innen besser schützen zu können. Mit diesen Investitionen können wir Entscheidungen über Inhalte leichter automatisieren, damit wir schneller reagieren und Fehler verringern können – unabhängig davon, ob wir in die Verbesserung vorhandener Systeme oder in neue Systeme investieren.
Hier stellen wir einige unserer Investitionen in KI-Technologie vor, mit denen wir die Beurteilung von Inhalten durch unsere Tools verbessern konnten:
  • Wir haben eine neue Architektur namens Linformer entwickelt. Sie analysiert Inhalte auf Facebook und Instagram in verschiedenen Regionen der Welt.
  • Wir haben ein neues System namens Reinforced Integrity Optimizer entwickelt. Es lernt aus Online-Signalen und kann so Hassrede leichter erkennen.
  • Wir haben ein Tool für den Bildabgleich namens SimSearchNet optimiert. Damit kann unsere Technologie subtile Unterschiede bei Inhalten besser erkennen, sodass wir bei Falschmeldungen Maßnahmen ergreifen können.
  • Wir haben Sprach-Tools namens XLM und XLM-R integriert. Mit ihnen können wir Classifier erstellen, die ein und dasselbe Konzept in mehreren Sprachen verstehen. Das heißt, wenn unsere Technologie in einer Sprache dazulernen kann, kann sie ihre Ergebnisse auch in anderen Sprachen verbessern. Bei Sprachen, die im Internet weniger üblich sind, ist dies besonders hilfreich.
  • Wir haben ein System zum Verständnis ganzer Entitäten entwickelt, das Inhalte auf Hassrede prüft.
Die KI-Branche durch offene, kooperative Maßnahmen in die Zukunft führen
Die durch gefährliche Inhalte verursachten Probleme betreffen die gesamte Technologiebranche und auch die Gesellschaft im Allgemeinen. Daher verfolgen wir mit unserer Technologie einen Open-Source-Ansatz und stellen sie anderen zur Verfügung. Wir sind davon überzeugt, dass Offenheit und Kooperationsbereitschaft gegenüber der KI-Community die Forschung und Entwicklung antreiben, neue Wege bei der Erkennung und Vermeidung gefährlicher Inhalte eröffnen und zum Schutz der Nutzer*innen beitragen.
Unter anderem folgende Technologien haben wir in den letzten Jahren als Open Source freigegeben, darunter zwei Branchenwettbewerbe unter unserer Leitung:
XLM-R ist ein Modell für maschinelles Lernen, das in einer Sprache trainiert und dann ohne zusätzliche Trainingsdaten in anderen Sprachen eingesetzt werden kann. In den Meta-Technologien posten Nutzer*innen Inhalte in über 160 Sprachen. Dank XLM-R können wir ein Modell für viele Sprachen nutzen und benötigen nicht für jede Sprache ein eigenes Modell. So können wir Hassrede und andere unzulässige Inhalte in einer Vielzahl von Sprachen erkennen und Produkte in mehreren Sprachen gleichzeitig auf den Markt bringen. Wir haben unsere Modelle und den Code als Open Source freigegeben, damit die Forschungsgemeinschaft die Performance ihrer mehrsprachigen Modelle steigern kann.
Ziel: Den Menschen auf unseren Plattformen das bestmögliche Erlebnis bieten, ganz unabhängig von der gesprochenen Sprache.
Linformer ist eine Transformer-Architektur, die Milliarden von Inhalten auf Facebook und Instagram in verschiedenen Regionen der Welt analysiert. Mit Linformer können Hassrede und Inhalte erkannt werden, die zu Gewalt aufrufen. Wir haben unsere Forschungsergebnisse veröffentlicht und den Linformer-Code als Open Source freigegeben, damit andere Wissenschaftler*innen und Ingenieur*innen ihre Modelle optimieren können.
Ziel: Ein neues KI-Modell entwickeln, das aus Text, Bildern und gesprochener Sprache lernt sowie Hassrede, Menschenhandel, Mobbing und andere gefährliche Inhalte verlässlich erkennt.
Mit Microsoft, der Organisation Partnership on AI und Akademiker*innen verschiedener Universitäten haben wir einen Wettbewerb ins Leben gerufen. Dabei geht es um Technologie, die zuverlässiger erkennt, wenn ein Video mithilfe von KI verändert wurde, um die Nutzer*innen zu täuschen. Unser Beitrag zur Deepfake Detection Challenge bestand darin, einen realistischen Datensatz zur Erkennung von Deepfakes bereitzustellen, den es in der Branche bisher nicht gab.
Ziel: Die Branche zu neuen Möglichkeiten anregen, wie man mit KI manipulierte Medien erkennen und verhindern kann, dass diese zur Täuschung der Nutzer*innen eingesetzt werden.
Zusammen mit Getty Images und DrivenData haben wir einen Wettbewerb ausgeschrieben, um die Forschung zur problematischen Erkennung von Hassrede zu beschleunigen, die Bilder und Text miteinander verbindet. Unser Beitrag zur Hateful Memes Challenge bestand darin, einen einzigartigen Datensatz mit über 10.000 Beispielen zu erstellen, den Forschende einfach für ihre Arbeit nutzen können.
Ziel: Die Branche dazu anregen, neue Ansätze und Methoden zur Erkennung multimodaler Hassrede zu entwickeln.