Chaque jour, les équipes de Meta doivent prendre la décision difficile d’autoriser ou non un contenu à rester en ligne en se basant sur les Standards de la communauté. Or, compte tenu de la taille de notre communauté et de la portée de notre plateforme, nous avons créé le Conseil de surveillance pour qu’il puisse trancher en toute connaissance de cause.
Pourquoi le Conseil a été créé
En 2018, le PDG de Meta, Mark Zuckerberg, a partagé un blueprint décrivant des moyens nouveaux et plus efficaces pour que les plateformes comme Facebook restent responsables et apportent une légitimité aux règles qui régissent les grandes communautés sur Internet.
Assistée par des universitaires et des spécialistes, Meta a concrétisé ce projet et a créé un Conseil de surveillance dont l’objectif est de contrôler de manière indépendante certaines des décisions les plus significatives et les plus complexes que nous prenons en matière de contenu. La raison d’être du Conseil était simple : Meta ne devrait pas prendre seule autant de décisions importantes au sujet de la liberté d’expression et de la sécurité.
Nous avons ensuite mené des consultations dans le monde entier visant à mieux comprendre comment institutionnaliser cette vision. Ces consultations ont été réalisées non seulement auprès de spécialistes du monde entier, tels que des universitaires, des spécialistes techniques, des avocat·es, des designers et des technologues, mais aussi auprès de membres du public. Grâce à leurs avis, nous avons été à même de définir les structures et de rédiger les documents qui serviraient de fondation à la gouvernance d’un tel Conseil. Il s’agissait notamment de rédiger une charte, établissant un trust indépendant et élaborant les statuts du Conseil.
Le Conseil entre en activité
En mai 2020, les 20 premiers membres du Conseil de surveillance ont été présentés : un groupe de personnes éclairées et estimées qui ont occupé diverses positions, notamment des professeur·es, des journalistes et des chefs d’État.
À la suite de cette annonce, les membres ont suivi une formation sur nos Standards de la communauté, sur les processus d’élaboration de nos politiques, sur les cadres de travail en matière de modération de contenu et sur les types de décisions que le Conseil serait habilité à rendre. Les membres ont également été soumis à une orientation rigoureuse sur un nouvel outil de gestion des cas développé par Meta. Cet outil leur permet d’accéder aux dossiers et d’en examiner les informations pertinentes en toute sécurité, où qu’ils se trouvent.
Le Conseil a commencé à recevoir des cas en octobre 2020. Il a depuis lors rendu un certain nombre de décisions et de recommandations, qui ont déjà changé la façon dont nous modérons le contenu pour les milliards de personnes utilisant Facebook et Instagram.
L’objectif a toujours été que le Conseil joue son rôle à l’avenir en tant que partie intégrante et importante d’une stratégie plus large de modération de contenu. Nous nous engageons à soutenir le Conseil au fil de son développement en tant qu’institution et de son élargissement à 40 membres. Il s’agit notamment de réviser continuellement la portée du Conseil et d’élargir celle-ci en y intégrant de nouveaux types de contenu définis dans les statuts, un processus auquel nous travaillons déjà.
Nous espérons que le Conseil serve à l’avenir de modèle en matière de gouvernance de contenu dans l’ensemble de notre secteur, car il continue à nous faire part de ses avis précieux sur la manière de prendre certaines des décisions les plus lourdes de conséquences qui soient en matière de liberté d’expression aux quatre coins du globe.