Exploitation sexuelle, maltraitance et nudité des enfants

Détails de la politique

CHANGELOG
Justification de la Politique
Nous n’autorisons pas le contenu ou l’activité qui exploite sexuellement ou met en danger les enfants. Lorsque nous prenons connaissance d’un cas apparent d’exploitation infantile, nous le signalons au National Center for Missing and Exploited Children (NCMEC), conformément à la loi en vigueur. Nous savons que certains parents partagent parfois des images de leurs propres enfants nus sans mauvaises intentions. Cependant, nous supprimons généralement ces images en raison du risque d’abus par d’autres personnes, mais aussi pour éviter que ces images puissent être réutilisées ou détournées.
Nous travaillons également avec des spécialistes externes, notamment le Conseil de sécurité de Meta, pour discuter et améliorer nos politiques et leur application autour des problèmes de sécurité en ligne, en particulier en ce qui concerne les enfants. Apprenez-en davantage sur la technologie que nous utilisons pour lutter contre l’exploitation d’enfants.
Ne publiez pas de contenu relatif aux thèmes suivants :
Exploitation sexuelle d’enfants
Tout contenu, toute activité ou toute interaction qui menace, dépeint, glorifie, soutient, fournit des instructions pour, fait des déclarations d’intention envers, admet une quelconque participation à ou partage des liens avec l’exploitation sexuelle d’enfants (y compris des mineurs, tout-petits, bébés réels ou des représentations non réelles ressemblant à l’humain, comme dans l’art, le contenu généré par l’IA, les personnages de fiction, les poupées, etc.). Cela inclut, sans pour autant s’y limiter :
  • Des rapports sexuels
    • Rapports sexuels ou oraux explicites montrant une bouche ou des parties génitales entrant en contact avec les parties génitales ou l’anus d’une autre personne où au moins les parties génitales ou l’anus de l’une des personnes sont exposés.
    • Rapports sexuels ou oraux implicites, y compris lorsque le contact est imminent ou n’est pas directement visible.
    • Stimulations des parties génitales ou de l’anus, y compris lorsque le rapport est imminent ou n’est pas directement visible.
    • Toutes les propositions précitées incluant un animal.
  • Des enfants avec des éléments sexuels, y compris, mais sans s’y limiter :
    • Tout ligotage.
    • Tout signe d’excitation.
    • Tout gros plan sur les parties génitales ou sur l’anus.
    • La présence d’adultes sexuellement excités.
    • La présence de sex toys ou l’utilisation d’un objet à des fins de stimulation, de gratification sexuelle ou d’abus sexuel.
    • Un costume à caractère sexuel.
    • Le déshabillage.
    • Une mise en scène (par exemple sur un lit) ou une prise de vue professionnelle (qualité/mise au point/angles).
    • Un baiser à bouche ouverte.
    • La stimulation de mamelons humains ou l’exercice d’une pression sur une poitrine féminine (SAUF dans le cadre de l’allaitement).
    • La présence de substance découlant d’une activité sexuelle
  • Tout contenu impliquant des enfants dans un contexte sexuel fétichiste
  • Tout contenu qui soutient, promeut, prône et encourage la pédophilie, à moins qu’il ne s’inscrive de manière neutre dans un contexte de santé
  • Tout contenu identifiant ou ridiculisant les victimes présumées d’exploitation sexuelle d’enfants en utilisant leur nom ou leur image
Solicitation
Tout contenu qui sollicite un contenu ou une activité sexuelle représentant ou impliquant des enfants, défini de la façon suivante :
  • Tout matériel d’abus sexuels sur personnes mineures.
  • Des images de nudité montrant des enfants réels ou non réels.
  • Des images sexualisées d’enfants réels ou non réels.
Interactions inappropriées avec des enfants
Tout contenu qui consiste en des interactions inappropriées avec des enfants ou qui facilite lesdites interactions, comme :
  • La sollicitation, l’organisation ou la planification d’expériences sexuelles avec des enfants.
  • Le fait d’inciter des enfants à participer à des activités sexuelles par le biais de conversations sexualisées ou le fait d’offrir, de diffuser, d’obtenir ou de demander du contenu à caractère sexuel auprès d’enfants, en les y exposant à dessein ou via des messages privés.
  • La participation à des conversations à caractère sexuel implicite dans des messages privés avec des enfants.
  • L’obtention ou la demande de contenus sexuels à des enfants dans des messages privés.
Exploitation d’images intimes et sextorsion
Tout contenu tentant d’exploiter des enfants réels par :
  • L’obtention d’argent, de faveurs ou d’images intimes en menaçant d’exposer des images ou des informations intimes réelles ou non réelles
  • Le partage, la menace ou l’indication d’une intention de partager des conversations privées ou des images intimes, réelles ou non, de nature sexuelle
Sexualisation d’enfants
  • Tout contenu (y compris des photos, des vidéos, de l’art hors-ligne, du contenu digital et des descriptions verbales) sexualisant des enfants réels ou non réels.
  • Des groupes, Pages et profils dédiés à la sexualisation d’enfants réels ou non réels.
Nudité juvénile
Tout contenu qui décrit des scènes de nudité impliquant des enfants réels ou non réels, où la nudité se définit comme :
  • Des gros plans de parties génitales d’enfants réels ou non réels.
  • Des tout-petits réels ou non réels nus montrant :
    • Des organes génitaux visibles, même s’ils sont couverts ou dissimulés par des vêtements transparents.
    • Un anus visible ou un gros plan sur des fesses entièrement exposées.
  • Des mineurs réels ou non réels nus montrant :
    • Des organes génitaux visibles (y compris les organes génitaux uniquement dissimulés par des poils pubiens ou des vêtements transparents).
    • Un anus visible ou un gros plan sur des fesses entièrement exposées.
    • Des tétons féminins découverts.
    • Pas de vêtements du cou aux genoux, même si les organes génitaux ou les tétons féminins ne sont pas visibles.
  • Sauf si les images non réelles sont diffusées à des fins sanitaires ou représentent de manière non sexuelle des enfants nus dans l’art hors-ligne.
Maltraitance non sexuelle d’enfants
Des vidéos ou des photos qui représentent une maltraitance non sexuelle d’enfants réels ou non réels indépendamment du partage de contenu, sauf si les images proviennent de l’art hors-ligne, de dessins animés, de films ou de jeux vidéo.
Tout contenu qui glorifie, soutient, promeut, prône, encourage ou fournit des instructions pour prendre part à toute agression non sexuelle d’enfants.
En plus de supprimer les comptes qui enfreignent nos politiques en matière d'exploitation sexuelle, de maltraitance et de nudité d’enfants (CSEAN), nos équipes de modération et nos systèmes automatisés tiennent compte d’un large éventail de signaux afin d'éviter les interactions potentiellement indésirables ou dangereuses.
  • Nous pouvons désactiver les comptes d’adultes ou restreindre leur accès à des produits et à des fonctionnalités (p. ex., la possibilité de suivre certains comptes) en fonction de leurs interactions avec d’autres comptes, de leurs recherches de contenus violents ou de leurs interactions avec ceux-ci (p. ex., mention J’aime ou enregistrement), ou de leur appartenance à des communautés (comme des groupes) que nous avons supprimées parce qu’elles enfreignaient nos politiques.
Pour les types de contenus suivants, nous ajoutons un écran d’avertissement afin d’informer les utilisateurs de leur caractère choquant et pour que seules les personnes âgées d’au moins 18 ans puissent les voir :
  • Des vidéos ou des photos montrant des officiers de police ou des militaires maltraitant des enfants.
  • Des vidéos ou des photos de maltraitance d’enfants lorsque la police, des agences de protection de l’enfance ou des partenaires de sécurité fiables nous demandent d’autoriser le contenu sur la plateforme aux fins expresses de rétablir la sécurité d’un enfant.
Dans le cas des types de contenus suivants, nous affichons un écran visant à avertir qu’ils sont potentiellement dérangeants pour certaines personnes :
  • Des vidéos ou des photos d’immersion violente d’un enfant dans de l’eau dans le cadre de rites religieux.
Nous demandons du contexte et/ou des informations supplémentaires pour assurer le respect des Standards de la communauté suivants :
Pour le contenu suivant, nous affichons un message d’avertissement afin d’informer qu’il s’agit de contenus potentiellement sensibles :
  • Des images publiées par une agence de presse représentant des enfants nus dans un contexte de famine, de génocide, de crimes de guerre ou de crimes contre l'humanité, à moins qu'elles ne soient accompagnées d'une légende violente ou partagées dans un contexte violant, auquel cas le contenu sera supprimé.
Nous pouvons supprimer des images représentant les conséquences du mauvais traitement des enfants lorsqu’elles sont signalées par des médias d’informations, des ONG ou d’autres partenaires de sécurité de confiance.
Nous pourrions supprimer du contenu identifiant de potentielles victimes d’exploitation sexuelle d’enfant d’une autre manière que par leur nom ou leur image, si le contenu contient des informations susceptibles de mener à l’identification de l’individu.
Nous pourrions supprimer du contenu créé dans le but d’identifier une personne mineure privée si cela pose un risque pour la sécurité de la personne mineure, lorsque la police, le gouvernement ou un partenaire de confiance l’exige ou lorsque le contenu est signalé par la personne mineure elle-même ou par ses parents ou son représentant légal.
Expériences d’utilisation
Découvrez quelques exemples d’une mise en application pour les utilisateurs de Facebook : le signalement d’un élément qui, selon vous, n’a pas sa place sur Facebook, la réception d’une notification selon laquelle vous avez enfreint nos Standards de la communauté, ou encore un écran d’avertissement sur un contenu donné.
Remarque : Nous nous améliorons en permanence : ce que vous voyez ici peut ne pas correspondre à la version actuelle.
EXPÉRIENCE UTILISATEUR
Signalement
EXPÉRIENCE UTILISATEUR
Communication post-rapport
EXPÉRIENCE UTILISATEUR
Retrait
EXPÉRIENCE UTILISATEUR
Écrans d’avertissement
Données
Consultez notre dernier Rapport d’application des Standards de la communauté.
Mise en application
Nous appliquons les mêmes politiques dans le monde entier, pour chaque utilisateur de Facebook.
Équipes d’examinateurs
Notre équipe internationale compte plus de 15 000 examinateurs qui mettent chaque jour tout en œuvre pour protéger les utilisateurs de Facebook.
Interactions d’intervenants
Des spécialistes externes, des universitaires, des ONG et des responsables politiques contribuent à l’élaboration des Standards de la communauté Facebook.
Obtenir de l’aide sur la maltraitance, la nudité et l’exploitation sexuelle d’enfants
Découvrez ce que vous pouvez faire si vous voyez quelque chose sur Facebook qui va à l’encontre de nos Standards de la communauté.
Consulter les pages d’aide