Criação do Comitê de Supervisão
ÚLTIMA ATUALIZAÇÃO 12 DE NOV DE 2024
Todos os dias, as equipes da Meta tomam decisões difíceis sobre qual conteúdo deve permanecer e qual deve ser removido com base nos Padrões da Comunidade. Mas, dado o tamanho da nossa comunidade e o alcance da nossa plataforma, criamos o Comitê de Supervisão para trazer responsabilidade a essas decisões.
Por que o comitê foi criado
Em 2018, o CEO da Meta, Mark Zuckerberg, compartilhou um blueprint que descrevia maneiras novas e melhores de plataformas como o Facebook permanecerem responsáveis e dar legitimidade às regras que regem grandes comunidades na internet.
Com a contribuição de estudiosos e especialistas, a Meta colocou essa nota em ação e elaborou um comitê de supervisão para oferecer uma verificação independente sobre algumas das decisões mais significativas e difíceis que tomamos sobre conteúdo. A ideia orientadora por trás do Comitê era simples: Não cabe à Meta tomar, por conta própria, tantas decisões importantes sobre a liberdade de expressão e a segurança.
Em seguida, passamos por um processo de consulta global para entender melhor como transformar essa visão em uma instituição. Essa consulta incluiu contribuições de especialistas do mundo inteiro, como acadêmicos, especialistas técnicos, advogados, designers e tecnólogos, assim como contribuições de membros do público. Graças a esse feedback, conseguimos criar as estruturas e os documentos que constituiriam a base da governança de um comitê dessa natureza. Isso incluiu a redação de um estatuto, o estabelecimento de um fundo fiduciário independente e o desenvolvimento do regulamento interno do comitê.Início das operações do Comitê
Em maio de 2020, os primeiros 20 membros do Comitê de Supervisão foram anunciados — um grupo de pessoas estimadas e cuidadosas, que trabalhavam em uma ampla variedade de cargos, incluindo professores, jornalistas e chefes de estado.
Após terem sido anunciados, os membros receberam um treinamento sobre os nossos Padrões da Comunidade, processos de desenvolvimento de políticas, estruturas de monitoramento e tipos de decisões sobre o conteúdo abrangido pelo Comitê. Os membros também receberam uma orientação rigorosa sobre uma nova ferramenta de gerenciamento de casos desenvolvida pela Meta. Essa ferramenta permite que os membros acessem e analisem, de forma segura, as informações pertinentes sobre os casos em qualquer lugar do mundo.
O Comitê começou a examinar casos em outubro de 2020. Desde então, ele emitiu várias decisões e recomendações, que já mudaram a forma como moderamos conteúdo para bilhões de pessoas no Facebook e no Instagram.
Nossa meta é que o Comitê exista por muitos anos como uma parte importante da estratégia mais ampla de moderação de conteúdo. Empenhamo-nos em apoiar o Comitê à medida que ele se desenvolve como instituição e se expande para 40 membros. Isso inclui examinar continuamente o escopo do Comitê e trabalhar para trazer tipos adicionais de conteúdo descritos nos regulamentos internos para esse escopo, um processo que já começamos.
Esperamos que o Comitê possa servir como modelo para o futuro da governança de conteúdo em todo o nosso setor, continuando a oferecer contribuições preciosas sobre como tomamos as decisões mais importantes para a liberdade de expressão no mundo inteiro.