Comment Meta hiérarchise les contenus à examiner
MIS À JOUR 12 NOV. 2024
D’autres fois, la vérification est plus compliquée. Cela peut être dû à l’ambiguïté de la publication, à son langage particulièrement complexe ou à des images qui dépendent trop du contexte. Dans ces cas-là, nous effectuons un examen manuel plus poussé.
Facteurs de hiérarchisation pour l’examen manuel
Pour identifier les contenus que nos équipes d’examen manuel doivent examiner en priorité, nous tenons compte de trois facteurs principaux :
GRAVITÉ
Quelle est la probabilité que le contenu puisse causer du tort, à la fois en ligne et hors ligne ?
VIRALITÉ
Avec quelle rapidité le contenu est-il partagé ?
PROBABILITÉ D’INFRACTION
Quelle est la probabilité que le contenu en question enfreigne réellement nos politiques ?
Les équipes d’examen manuel aident notre technologie à s’améliorer
Nos équipes d’examen manuel s’appuient sur leur connaissance de certaines régions et problématiques pour prendre des décisions complexes et souvent nuancées. Chaque fois qu’un membre de cette équipe prend une décision, nous utilisons cette information pour former notre technologie. Au fil du temps et des millions de décisions, notre technologie s’améliore et nous permet ainsi de supprimer davantage de contenus en infraction.
Aider les équipes d’examen à faire les bons choix
La technologie aide les équipes d’examen manuel à faire ce qu’elles font de mieux
Comme bon nombre de modèles de machine learning, notre technologie s’améliore au fil du temps, puisqu’elle peut s’appuyer sur un nombre toujours croissant d’exemples de contenus en infraction. Cela signifie que les équipes d’examen manuel sont à même de se concentrer davantage sur le contenu grave, viral, nuancé, inédit et complexe, c’est-à-dire là où les êtres humains ont tendance à prendre de meilleures décisions que la technologie.
Questions fréquentes à propos de la priorisation de contenu à examiner
Comment la hiérarchisation de la mise en application a-t-elle évolué ?
Auparavant, les équipes d’examen manuel passaient la plus grosse partie de leur temps à examiner le contenu signalé. Cela signifie qu’elles passaient souvent trop de temps sur des contenus peu graves ou n’enfreignant clairement pas les standards, et pas assez de temps sur les contenus les plus graves et les plus susceptibles de causer du tort. Cela signifie également que les décisions prises par les équipes d’examen manuel n’amélioraient pas tant que ça nos solutions de contrôle.
Notre approche actuelle de la priorisation corrige ces défauts et nous permet désormais d’examiner en premier les contenus les plus susceptibles de nuire tout en améliorant notre technologie plus rapidement.
Les équipes d’examen manuel vérifient-elles tous les signalements ?
Pas nécessairement. Aussi bien les équipes d’examen manuel que la technologie jouent un rôle dans l’examen des signalements. Si notre technologie est à même d’analyser un contenu donné, elle prendra automatiquement les mesures adéquates le concernant.
Comment vous assurez-vous que les décisions prises par les équipes d’examen manuel n’affectent pas l’impartialité de votre technologie ?
Pour répondre aux inquiétudes en matière d’équité et d’intégration soulevées par le déploiement de l’IA dans les technologies Meta, nous avons créé l’équipe d’IA responsable : une équipe multidisciplinaire composée de spécialistes de l’éthique, des questions sociales et politiques, et des politiques, ainsi que d’ingénieur·es et de chercheur·ses spécialisé·es dans l’intelligence artificielle, qui se consacre uniquement à cette problématique. L’objectif principal de l’équipe est de mettre en place des règles, des outils et des processus pour s’attaquer aux problèmes de responsabilité suscités par l’IA et d’assurer que les ressources systémiques nécessaires sont disponibles en conséquence au sein du groupe Meta.