So trainiert Meta die Technologie
AKTUALISIERT 19.01.2022
Manchmal ist die Bedeutung von Inhalten für eine Person sofort offensichtlich, für die Technologie jedoch weniger klar. Um die Nutzer*innen zu schützen, muss Meta künstliche Intelligenz trainieren, damit sie unzulässige Beiträge erkennt.
Im folgenden Inhalt etwa werden Text und Bilder kombiniert. Zwei der Bilder sind harmlos, die anderen beiden potenziell bösartig.
Ohne das entsprechende Training werden die meisten KI-Systeme Mühe haben, diese Unterschiede zu erkennen. Entweder liest das System den Text und ermittelt seine wörtliche Bedeutung oder es prüft das Bild, um die allgemeine Bedeutung des Bildgegenstands zu bestimmen. Menschen hingegen verknüpfen Text und Bild instinktiv miteinander, um sich den Inhalt zu erschließen.
Eine Möglichkeit, diesem Problem entgegenzuwirken, besteht darin, unsere Technologie zu trainieren, sodass sie zunächst alle Komponenten eines Beitrags prüft und erst dann die eigentliche Bedeutung ermittelt. Dies kann der KI helfen, genauer zu erkennen, was eine Person sieht, wenn sie sich denselben Beitrag ansieht.
Außerdem nutzen wir ein System, das der KI hilft, direkt aus Millionen von aktuellen Inhalten zu lernen und Trainingsdaten auszuwählen, die unsere Ziele widerspiegeln. Das unterscheidet sie von herkömmlichen KI-Systemen, die für das Training auf statische Daten angewiesen sind. Mit dieser Methode können wir die Menschen besser vor Hassrede und Inhalten schützen, die zu Gewalt aufrufen.Hier ist noch einiges zu tun, doch mit diesem Training kann sich unsere Technologie weiter verbessern und die Bedeutung multimodaler Inhalte leichter ermitteln.