Corrections et ajustements
MIS À JOUR 2 OCT. 2024
Nous détaillons tout ajustement spécifique identifié par nos pratiques de qualité de l’information. Nous procéderons à des mises à jour conformément à nos procédés de mesure.
08/2024 : résolution d’un bug affectant la mesure de la prévalence des faux comptes sur Facebook
Au premier trimestre 2024, nous avons découvert un bug au niveau de la requête utilisée pour calculer la prévalence des faux comptes sur Facebook et nous l’avons corrigé. Par conséquent, cette prévalence a légèrement été surestimée au premier trimestre 2024.
05/2024 : résolution d’un bug au niveau de la méthodologie d’échantillonnage pour la prévalence sur Facebook et Instagram
La prévalence des contenus en infraction est estimée à l’aide d’échantillons de vues de contenu sur Facebook ou Instagram. Nous avons corrigé un bug où une petite quantité de données non pertinentes était échantillonnée, et cela n’a pas entraîné de changement majeur pour la prévalence.
11/2023 : mise à jour des calculs pour le taux de proactivité sur Facebook et Instagram L’hameçonnage ne fait plus partie du spam
Le taux de proactivité a augmenté pour plusieurs types d’infraction à mesure que nous avons mis à jour notre méthodologie. Avant cette modification, lorsqu’une publication était signalée, nous considérions également les commentaires sur le message comme signalés. À partir du troisième trimestre de 2023, nous avons changé notre méthodologie pour ne considérer les commentaires comme signalés par l’utilisateur·ice que s’ils l’avaient été directement par cette personne.
Par ailleurs, les indicateurs liés à l’hameçonnage ne seront plus comptabilisés comme du spam dans les rapports d’application des Standards de la communauté à partir du troisième trimestre 2023, afin de s’aligner sur une modification précédente de la politique de Meta.
08/2023 : mise à jour de la méthodologie pour les faux comptes sur Facebook et Instagram
D’après la législation sur les services numériques de l’Union européenne, les utilisateur·ices doivent pouvoir faire appel pendant six mois après l’adoption d’une mesure de mise en application, augmentant ainsi le délai pour faire appel. Pour représenter de manière significative l’expérience d’utilisation dans nos indicateurs sur les faux comptes, nous avons modifié la façon dont nous les comptabilisons pour nous aligner sur ce nouveau délai. L’augmentation que nous avons constatée entre le premier et le deuxième trimestre concernant le nombre de suppressions de faux comptes est due à cette évolution.
02/2023 : mise à jour de la méthodologie pour le taux de proactivité sur Facebook et Instagram
Dans le cadre de notre travail qui vise à constamment affiner et améliorer les indicateurs que nous partageons dans ce rapport, nous avons mis à jour notre méthodologie de calcul du taux de proactivité à partir du quatrième trimestre de 2022 pour ne considérer les mesures de mise en application comme étant « proactives » que si nous trouvons et traitons le contenu en infraction avant que les utilisateur·ices nous le signalent. Notre ancienne méthodologie jugeait les mesures comme « proactives » si une détection proactive survenait en premier lieu dans les cas où deux causes de détection étaient présentes (c’est-à-dire qu’un contenu était détecté de façon proactive et signalé par des utilisateur·ices). La nouvelle méthodologie tient compte de l’existence des signalements de l’utilisateur·ice et considèrent à présent ces instances comme « réactives », et non « proactives ». Bien que ce changement n’influence pas les indicateurs de façon significative, il a contribué à de légères différences d’un trimestre sur l’autre dans l’indicateur de taux de proactivité. Le tableau figurant dans ce document fournit une comparaison des indicateurs mesurés avec l’ancienne et la nouvelle méthodologie pour les périodes de signalement du troisième et du quatrième trimestre 2022.
08/2022 : mise à jour de la méthodologie pour le contenu en appel sur Facebook et Instagram
À partir du premier trimestre 2020, en raison d’une réduction temporaire de notre capacité d’examen due au COVID-19, nous n’avons pas toujours pu permettre aux personnes de faire appel, mais nous leur avons tout de même donné la possibilité de nous faire part de leur désaccord avec notre décision. Comme nos données entre le premier trimestre de 2020 et le premier trimestre de 2022 le montrent, nous n’avons pas tenu compte de ces instances dans notre définition de l’indicateur des appels, car ils fournissent de précieux avis d’utilisateur·ices, mais ne sauraient remplir les conditions d’un appel sans la possibilité de mener un examen. Au cours de l’année passée, nous avons amélioré et développé ces expériences d’appel, et nos opérations s’étant stabilisées, nous examinons maintenant un grand nombre de ces instances.
Notre travail visant à affiner et améliorer en permanence les indicateurs que nous partageons dans ce rapport, nous avons mis à jour notre méthodologie relative aux appels à partir du deuxième trimestre 2022, afin de tenir compte de l’ensemble des instances où le contenu a été envoyé pour examen supplémentaire, notamment lorsque des personnes nous ont indiqué leur désaccord avec notre décision. Nous excluons toujours les instances où le contenu n’est pas envoyé pour examen supplémentaire, même si des personnes nous ont indiqué leur désaccord avec notre décision, comme dans bon nombre de cas de spam.
02/2022 : contenu traité, contenu contesté, taux de proactivité et contenu restauré pour terrorisme sur Facebook et Instagram.
Au quatrième trimestre, nous avons identifié et reclassé des mesures que nous avions prises à l’encontre du contenu terroriste sur Facebook et Instagram. Cela a influé sur les chiffres que nous avions précédemment partagés concernant le contenu traité, le taux de proactivité, le contenu contesté et le contenu restauré pour le troisième trimestre de 2021. Nous les avons donc ajustés en conséquence.
11/2021 : contenu traité pour suicide et automutilation sur Instagram, et contenu restauré après suppression pour nudité juvénile et exploitation sexuelle d’enfants sur Facebook.
Au deuxième trimestre 2020, certains contenus que nous avons traités pour infraction à notre politique en matière de contenu violent et explicite ont ultérieurement été considérés comme enfreignant notre politique en matière de suicide et d’automutilation. Nous avons reclassé ces contenus en conséquence, ce qui a influencé les chiffres que nous avions précédemment partagés concernant le contenu traité sur Instagram au deuxième trimestre 2020. Nous avons également apporté de légers ajustements à nos chiffres sur le contenu restauré après suppression pour la nudité juvénile et exploitation sexuelle d’enfants sur Instagram au troisième trimestre 2020, en raison d’entités précédemment mal classées. Nous continuerons à mettre à jour les chiffres antérieurs à mesure que nous actualiserons nos politiques et que nous continuerons à améliorer nos systèmes et notre comptabilisation.
08/2021 : contenu traité pour spam, suicide et automutilation, taux de proactivité pour harcèlement et intimidation et suicide et automutilation, contenu restauré après suppression pour nudité et activités sexuelles chez les adultes
Ce trimestre, nous avons apporté des améliorations à nos indicateurs concernant le spam, le suicide et l’automutilation, ce qui n’a entraîné que des changements minimes par rapport aux chiffres publiés précédemment. Nous avons également procédé à des ajustements méthodologiques qui ont entraîné de légères modifications dans les taux de proactivité pour le harcèlement et l’intimidation et pour le suicide et l’automutilation. Enfin, nous avons reclassé certains contenus traités pour spam dans la catégorie nudité et activités sexuelles chez les adultes, ce qui a affecté les indicateurs pour le contenu que nous avons restaurés.
05/2021 : contenu traité pour suicide et automutilation sur Facebook
En 2020, certains contenus que nous avons traités pour avoir enfreint notre politique en matière de contenu violent et explicite ont ultérieurement été considérés comme enfreignant notre politique en matière de suicide et d’automutilation. Nous avons reclassé ces contenus en conséquence, ce qui a influé sur les chiffres que nous avions précédemment partagés concernant le contenu traité sur Facebook en 2020.
02/2021 : contenu restauré après suppression pour nudité et activités sexuelles chez les adultes sur Facebook, prévalence et contenu traité pour contenu violent et explicite sur Facebook, contenu traité pour suicide et automutilation sur Facebook et contenu restauré par Instagram.
Au quatrième trimestre, nous avons apporté quelques précisions sur certaines catégories d’images pour notre politique en matière de nudité et d’activités sexuelles chez les adultes sur Facebook. Nous avons restauré certains contenus précédemment traités sur la base de notre politique la plus récente, ce qui a influencé les chiffres que nous avions précédemment partagés concernant les contenus restaurés sur Facebook au troisième trimestre.
Pour les contenus violents et explicites sur Facebook, la prévalence a précédemment été fixée entre 0,05 % et 0,06 % de vues dans le rapport d’application des Standards de la communauté de novembre 2020. Dans le rapport de février 2021, nous l’avons mise à jour et portée à 0,07 % de vues au troisième trimestre.
Au deuxième trimestre, il est apparu qu’une partie du contenu que nous avions traité en infraction de notre politique en matière de contenu violent et explicite enfreignait également notre politique spécifique en matière de suicide et d’automutilation, après avoir retrouvé une certaine capacité d’examen manuel début septembre. Nous avons reclassé ces contenus en conséquence, ce qui a influencé les chiffres que nous avions précédemment partagés concernant le contenu traité sur Facebook au troisième trimestre.
En outre, nous avons ajusté nos chiffres concernant le contenu restauré sur Instagram pour les premier et deuxième trimestres afin de tenir compte des commentaires précédemment non signalés que nous avons restaurés. Ceci a entraîné des modifications minimes dans la plupart des domaines de politique sur Instagram, et nous avons ajusté les données précédemment partagées en conséquence. Nous continuerons à mettre à jour les chiffres antérieurs à mesure que nous actualiserons nos politiques et que nous continuerons à améliorer nos systèmes et notre comptabilisation.11/2020 : mises à jour du contenu traité, taux de proactivité, contenu contesté par des utilisateur·ices et contenu restauré sur Facebook et Instagram
Au troisième trimestre, nous avons procédé à une mise à jour qui a permis de reclasser les contenus cruels et insensibles précédemment traités afin qu’ils ne soient plus considérés comme des discours haineux. Cette mise à jour a influencé les chiffres que nous avions précédemment partagés concernant le contenu traité, le taux de proactivité, le contenu contesté et le contenu restauré pour le quatrième trimestre de 2019, le premier trimestre de 2020 et le deuxième trimestre de 2020. Nous les avons donc ajustés en conséquence. Nous avons également mis à jour notre politique pour supprimer plus de types de contenus explicites relatifs au suicide et à l’automutilation et avons reclassé certains contenus violents et explicites que nous avions précédemment signalés comme dérangeants au deuxième trimestre.
En outre, nous avons ajusté nos chiffres concernant le contenu restauré sur Instagram pour les premier et deuxième trimestres afin de tenir compte des commentaires précédemment non signalés que nous avons restaurés, en plus d’un problème avec notre source de données pour le rapport d’août 2020. Ceci a entraîné des modifications minimes dans la plupart des domaines de politique sur Facebook et Instagram, et nous ajustons les données précédemment partagées en conséquence. Nous continuerons à mettre à jour les chiffres antérieurs à mesure que nous actualisons nos politiques et que nous continuons à améliorer nos systèmes et notre comptabilisation.08/2020 : contenu traité pour contenu violent et explicite sur Instagram
Au premier trimestre de 2020, nous avons identifié et corrigé un problème de comptabilisation des interventions de nos solutions de détection proactives de contenu violent et explicite sur Instagram, et nous avons pu mettre à jour la totalité de nos systèmes de rapports au deuxième trimestre. Pour le contenu violent et explicite sur Instagram, le contenu traité au premier trimestre de 2020 a précédemment été chiffré à 2,3 millions de contenus dans le rapport de mai 2020 et a été porté à 2,8 millions dans le rapport d’août 2020.
05/2020 : mises à jour du contenu traité, contenu traité de manière proactive, contenu contesté par des utilisateur·ices et contenu restauré sur Facebook et Instagram
Lors de notre dernière mise à jour en novembre 2019, nous avons apporté plusieurs améliorations à nos systèmes et à notre comptabilisation. Ces améliorations nous ont permis d’estimer les effets les plus importants tout en ajustant nos indicateurs à ce moment-là. À la suite du rapport de novembre 2019, nous avons affiné ces améliorations.
En raison de ce travail, dans la cinquième édition du rapport d’application des Standards de la communauté de mai 2020, nous ajustons les données précédemment partagées. La plupart des catégories pour l’année 2019 ne sont que légèrement affectées, et les ajustements des données ne représentent pas plus de 3 % des modifications du contenu traité. Nous continuerons à mettre à jour les chiffres antérieurs à mesure que nous reclassons le contenu précédemment supprimé pour différentes infractions sur la base des protocoles existants et en évolution, et que nous continuons à améliorer nos systèmes et notre comptabilisation.11/2019 : contenu traité, taux de proactivité pour le spam sur Facebook
Chez Meta, différents systèmes traitent différents types de contenu afin d’améliorer l’efficacité et la fiabilité des milliards d’interventions qui ont lieu chaque trimestre. L’un de ces systèmes, qui agit principalement sur les contenus comportant des liens, n’a pas enregistré nos interventions sur certains contenus qui ont été supprimés si personne n’a essayé de les voir dans les sept jours suivant leur création, même s’ils ont été supprimés de la plateforme.
Bien que nous sachions que le nombre réel de contenus comportant des liens a été sous-estimé, ce qui affecte principalement nos indicateurs relatifs au spam pour les contenus comportant des liens malveillants, nous ne sommes actuellement pas en mesure d’évaluer rétrospectivement cette sous-estimation. Ainsi, les chiffres figurant actuellement dans le rapport d’application des Standards de la communauté représentent une estimation minimale du contenu traité et du taux de proactivité pour la période concernée. Les mises à jour concernant ce problème seront publiées ici dès qu’elles seront disponibles.11/2019 : contenu traité, contenu traité de manière proactive, contenu contesté par des utilisateur·ices et contenu restauré sur Facebook
Lorsque nous avons partagé la deuxième édition du rapport d’application des Standards de la communauté en novembre 2018, nous avons mis à jour notre procédé de comptabilisation des interventions effectuées sur le contenu. Nous l’avons fait pour que les indicateurs reflètent mieux ce qui se passe sur Facebook lorsque nous intervenons sur un contenu qui enfreint nos Standards de la communauté. Par exemple, si nous constatons qu’une publication comportant une photo enfreint nos politiques, nous souhaitons que notre indicateur reflète le fait que nous avons traité un seul contenu, et non que nous avons effectué deux interventions distinctes pour supprimer la photo et la publication.
Toutefois, en juillet 2019, nous avons constaté que les systèmes visant à enregistrer et comptabiliser ces interventions n’enregistraient pas correctement les interventions effectuées. Ceci s’explique principalement par la nécessité de comptabiliser de multiples interventions qui ont lieu en l’espace de quelques millisecondes et de ne manquer ou surestimer aucune des interventions individuelles effectuées. Comme notre système d’enregistrement à des fins de mesure diffère de nos opérations de mise en application de nos politiques, notre problème de comptabilisation n’a pas eu d’impact sur la manière dont nous avons appliqué nos politiques ou dont nous avons informé les personnes de ces interventions. Seule la manière dont nous avons comptabilisé les interventions que nous avons effectuées a été affectée. Dès que nous avons découvert ce problème, nous avons mis tout en œuvre pour le corriger, identifier tout indicateur incorrect précédemment partagé et établir un ensemble de contrôles plus robustes dans nos procédés pour garantir l’exactitude de notre comptabilisation. Au total, nous avons constaté que ce problème a influencé les chiffres que nous avions précédemment partagés concernant le contenu traité, le taux de proactivité, le contenu contesté et le contenu restauré pour le troisième trimestre de 2018, le quatrième trimestre de 2018 et le premier trimestre de 2019.
La quatrième édition du rapport d’application des Standards de la communauté inclut les indicateurs corrects pour les trimestres concernés, et le tableau ci-dessus fournit les indicateurs précédemment rapportés ainsi que leurs corrections.