Comment la technologie aide à identifier les contenus à examiner en priorité
MIS À JOUR 19 JANV. 2022
Qu’il s’agisse de contenus potentiellement en infraction signalés par des personnes ou détectés par la technologie de Meta, l’automatisation nous aide à présenter rapidement le contenu à des équipes de révision spécialisées dans le domaine et la langue concernés.
Nous utilisons ensuite la technologie pour classer le contenu à examiner par ordre de priorité afin que nos équipes de révision puissent se concentrer d’abord sur les cas les plus importants. Ceci inclut les contenus susceptibles de causer des dommages hors ligne, tels que les publications liées au terrorisme et au suicide, ainsi que les contenus viraux qui enfreignent nos politiques et sont susceptibles de toucher une large audience.
Nous améliorons constamment notre technologie et nos processus afin de nous assurer que les équipes de révision passent plus de temps à se concentrer sur les bonnes décisions.
Pourquoi les équipes de révision jouent un rôle si important dans la mise en application des politiques de contenu
Notre technologie et nos équipes de révision travaillent toujours de concert pour limiter les préjudices causés dans notre communauté. Voici comment les examens et la technologie unissent leurs forces pour renforcer l’ensemble de notre système de mise en application du contenu.
Entraîner notre technologie
Lorsque les équipes de révision prennent une décision sur un contenu, elles forment et affinent simultanément notre technologie pour l’aider à identifier des contenus similaires au fil du temps. Ce processus d’avis impliquant les équipes et la technologie est essentielle pour maintenir nos systèmes à jour.
Améliorer nos algorithmes d’intelligence artificielle
Lorsqu’elles examinent un contenu en infraction, les équipes de révision indiquent manuellement la politique qui guide leur décision, ce qui signifie qu’elles signalent la politique que le contenu, le compte ou le comportement enfreint. Ces données importantes nous aident à améliorer la qualité de nos algorithmes d’intelligence artificielle qui recherchent de manière proactive les contenus nuisibles.
Prendre des décisions difficiles
Notre technologie donne de bons résultats dans 2 domaines en particulier : la détection des infractions répétées et l’identification des contenus manifestement explicites ou extrêmes. Toutefois, lorsqu’il existe un degré élevé d’ambiguïté, de complexité ou de nuance quant à l’application de nos politiques à un contenu, les examinateurs ont tendance à prendre de meilleures décisions que la technologie.