Comment Meta investit-elle dans la technologie ?
MIS À JOUR 19 JANV. 2022
Voici certains des investissements que nous avons réalisés dans la technologie de l’IA pour améliorer la manière dont nos outils comprennent les contenus :
- Nous avons développé une nouvelle architecture nommée Linformer, qui analyse le contenu de Facebook et d’Instagram dans différentes régions du monde.
- Nous avons mis au point un nouveau système, appelé Reinforced Integrity Optimizer, qui tire parti des signaux en ligne pour améliorer notre capacité à détecter les discours haineux.
- Nous avons amélioré un outil de mise en correspondance d’images, appelé SimSearchNet, qui aide notre technologie à détecter les différences subtiles dans le contenu afin que nous puissions prendre des mesures contre les fausses informations.
- Nous avons intégré des outils linguistiques, appelés XLM et XLM-R, qui nous aident à construire des classificateurs qui comprennent le même concept dans plusieurs langues. En d’autres termes, si notre technologie peut apprendre dans une langue, elle peut également améliorer ses performances dans d’autres, ce qui est particulièrement utile pour les langues moins courantes sur Internet.
- Nous avons mis au point un système de compréhension des entités entières, qui analyse le contenu afin de déterminer s’il contient des discours haineux.
Faire avancer le secteur de l’IA grâce à des efforts conjoints et inlassables
Les défis posés par les contenus nuisibles touchent l’ensemble du secteur technologique et la société en général. C’est pourquoi nous mettons notre technologie en libre accès afin que d’autres puissent l’utiliser. Nous estimons que le fait de collaborer ouvertement avec la communauté de l’IA favorisera la recherche et le développement, créera de nouvelles méthodes de détection et de prévention des contenus nuisibles et contribuera à la sécurité des personnes.
Voici quelques éléments technologiques que nous avons mis en libre accès ces dernières années, dont 2 concours organisés par le secteur que nous avons menés :
XLM-R
XLM-R est un modèle de machine learning formé dans une langue, puis utilisé dans d’autres langues sans données d’entraînement supplémentaires. Étant donné que les technologies Meta contiennent des contenus publiés dans plus de 160 langues, XLM-R nous permet d’utiliser un modèle pour plusieurs langues, au lieu d’un modèle par langue. Nous pouvons ainsi identifier plus facilement les discours haineux et les autres contenus violents dans un large éventail de langues et lancer des produits dans plusieurs langues à la fois. Nous avons mis en libre accès nos modèles et notre code afin que le milieu de la recherche puisse améliorer les performances de ses modèles multilingues.
Objectif : offrir la meilleure expérience sur nos plateformes, quelle que soit la langue.Linformer
Linformer est une architecture de transformation qui analyse des milliards de contenus sur Facebook et Instagram dans différentes régions du monde. Linformer permet de détecter les discours haineux et les contenus incitant à la violence. Nous avons publié nos recherches et mis en libre accès le code de Linformer afin que d’autres équipes de recherche et d’ingénierie puissent améliorer leurs modèles.
Objectif : pour créer un nouveau modèle d’IA qui apprend à partir de textes, d’images et de discours, et qui détecte efficacement les discours haineux, la traite des êtres humains, le harcèlement et d’autres formes de contenu nuisible.Deepfakes Detection Challenge
Nous avons lancé un concours avec Microsoft, la coalition Partnership on AI et des chercheurs de plusieurs universités pour trouver une technologie permettant de mieux détecter si l’IA a été utilisée pour modifier une vidéo dans le but de tromper celles et ceux qui la regardent. Notre contribution au Deepfakes Detection Challenge a consisté à commander un ensemble de données réalistes, qui manquait au secteur, pour aider à détecter les deepfakes.
Objectif : pour inciter le secteur à créer de nouveaux moyens de détecter et d’empêcher les médias modifiés par l’IA d’être utilisés pour tromper les personnes.Hateful Memes Challenge
Nous avons créé un concours avec Getty Images et DrivenData pour accélérer la recherche sur le problème de la détection des discours haineux qui combinent images et texte. Notre contribution au Hateful Memes Challenge a consisté à créer un ensemble de données unique de plus de 10 000 exemples afin que les équipes de recherche puissent facilement les utiliser dans leurs travaux.
Objectif : pour inciter l’industrie à créer de nouvelles approches et méthodes pour détecter les discours haineux multimodaux.