Comment les solutions de contrôle fonctionnent-elles ?

MIS À JOUR 12 NOV. 2024
Meta fait appel à la technologie pour appliquer les Standards de la communauté. Nos équipes collaborent pour construire et entraîner ces technologies. Voici comment cela fonctionne.
Construire des modèles et émettre des prévisions
Ce sont nos équipes d’intelligence artificielle qui mettent le processus en branle. Elles élaborent des modèles de machine learning capables d’effectuer des tâches, comme reconnaître le contenu d’une photo ou comprendre un texte. Ensuite, nos équipes d’intégrité, responsables de la détection et de la mise en application de nos politiques, s’appuient sur ces modèles pour en créer de plus spécifiques qui établissent des prévisions sur les personnes et les contenus. Ces dernières nous aident à mettre en application nos politiques.
Par exemple, un modèle d’IA prédit si un contenu constitue un discours haineux ou est violent et explicite. Un système distinct, nos solutions de contrôle, détermine s’il faut prendre une mesure, telle que la suppression, la rétrogradation ou l’envoi du contenu à une équipe d’examen manuel pour un examen plus approfondi.
Apprentissage par répétition, vérifié par des humains
Lorsque nous construisons une nouvelle technologie pour la mise en application du contenu, nous la formons à la recherche de certains signaux. Par exemple, certaines technologies recherchent de la nudité dans les photos, tandis que d’autres apprennent à comprendre les textes. Au début, un nouveau type de technologie peut manquer de confiance quant au fait qu’un contenu enfreigne nos politiques.
Les équipes d’examen peuvent alors prendre la décision finale et notre technologie peut apprendre de chaque décision humaine. Au fil du temps, après avoir tiré les leçons de milliers de décisions humaines, la technologie devient plus précise.
Nos politiques évoluent également avec le temps pour s’adapter à l’évolution de notre produit, des normes sociales et du langage. Par conséquent, la formation de notre technologie et des équipes d’examen est un processus progressif et itératif.
Détecter les infractions répétées
La technologie est très performante pour détecter le même contenu encore et encore, ou des millions de fois si nécessaire. Notre technologie prendra des mesures à l’égard d’un nouveau contenu s’il correspond à un autre contenu en infraction ou s’il s’en rapproche. Ceci est particulièrement utile pour les campagnes de fausses informations virales, les mèmes et les autres contenus qui peuvent se propager extrêmement rapidement.
Détecter des distinctions subtiles
La technologie permet de trouver et de supprimer le même contenu à plusieurs reprises. Il est toutefois très difficile d’amener une machine à comprendre les nuances dans le choix des mots ou la façon dont de petites différences peuvent modifier le contexte.
Misleading content 1
La première image est l’original du contenu trompeur, qui comprend de fausses informations sur la sécurité de la santé publique.
Misleading content 2
La deuxième image est une capture d’écran de la première image, cette fois avec la barre de menu de l’ordinateur en haut.
Misleading content 3
Enfin, la troisième image est extrêmement similaire à la première et à la deuxième, mais elle comporte 2 petites modifications de mots qui rendent le titre exact et non plus faux.
Les humains n’auront aucun mal à le comprendre, au contraire de la technologie. Le risque de trop se tromper existe d’un côté comme de l’autre. Si la technologie est trop agressive, elle supprimera des millions de publications qui ne sont pas en infraction. Si elle n’est pas assez agressive, elle pensera que la capture d’écran avec la barre de menu est différente de l’original, et ne prendra aucune mesure concernant le contenu.
Nous consacrons beaucoup de temps à ce problème. Ces dernières années, nous avons réalisé plusieurs investissements pour aider notre technologie à mieux détecter les distinctions subtiles dans le contenu. Elle devient de plus en plus précise au fur et à mesure de son apprentissage.
Subtile distinctions