Comment Meta entraîne la technologie
MIS À JOUR 19 JANV. 2022
Il arrive que la signification d’un contenu soit immédiatement évidente pour une personne, mais qu’elle le soit moins pour la technologie. Pour garantir la sécurité des personnes, Meta doit entraîner l’intelligence artificielle pour lui apprendre à détecter les publications en infraction.
Le contenu suivant allie par exemple un texte et des images. Deux des images sont bienveillantes, tandis que les 2 autres sont potentiellement mal intentionnées.
Sans un entraînement adéquat, la plupart des IA ont du mal à faire ces distinctions. Soit elles lisent le texte et déterminent la signification littérale des mots, soit elles regardent l’image pour déterminer la signification générale du sujet de la photo. En revanche, les équipes de révision associent instinctivement le texte à l’image pour comprendre le contenu.
Pour remédier à ce problème, nous entraînons notre technologie à examiner d’abord tous les éléments d’une publication, puis à en déterminer la véritable signification. L’IA peut ainsi détecter plus précisément ce qu’une personne voit lorsqu’elle rencontre la même publication.
Nous utilisons également un système qui guide l’IA pour qu’elle apprenne directement à partir de millions de contenus actuels et nous aide à choisir des données d’entraînement qui reflètent nos objectifs. Cette approche est différente de celle des systèmes d’IA classiques qui reposent sur des données fixes pour l’entraînement. Cette méthode nous permet de mieux protéger les personnes contre les discours haineux et les contenus incitant à la violence.Nous avons encore du pain sur la planche, mais cet entraînement aidera notre technologie à continuer à s’améliorer et à mieux comprendre la véritable signification des contenus multimodaux.