Caso sobre a publicação de uma entidade de saúde federal brasileira referente ao confinamento durante a pandemia de COVID
ÚLTIMA ATUALIZAÇÃO 12 DE JUN DE 2023
2021-008-FB-FBR
Hoje, o Comitê de Supervisão selecionou um caso indicado pelo Facebook referente a uma publicação na página do Facebook de uma entidade médica federal no Brasil com uma imagem de um aviso por escrito sobre a redução da propagação da COVID-19. O aviso afirma que os confinamentos são ineficazes, vão contra os direitos fundamentais da Constituição e tira de contexto uma citação de um médico da Organização Mundial da Saúde (OMS) para defender que os confinamentos são condenados pela OMS.
O Facebook permitiu esse conteúdo de acordo com nossa política sobre desinformação e danos em relação à COVID-19, conforme estabelecido em nossa Central de Ajuda e Padrões da Comunidade. O Facebook remove desinformação quando especialistas externos em saúde pública concluem que as informações são falsas e podem contribuir para violência iminente ou lesões corporais. Embora a OMS e outros especialistas em saúde tenham aconselhado o Facebook a remover alegações que defendem práticas de saúde específicas, como distanciamento social, eles não aconselharam o Facebook a remover alegações contra o confinamento.
O Facebook encaminhou este caso ao Comitê porque achamos relevante e difícil, já que esse conteúdo não viola as políticas do Facebook, mas ainda pode ser lido por algumas pessoas como apoio por apenas tomar determinadas medidas de segurança durante a pandemia.
Assim que a deliberação for concluída, vamos implementar a decisão do Comitê e atualizar esta publicação devidamente. Acesse o site do Comitê para consultar a decisão assim que for emitida.
Leia o resumo da seleção do caso pelo Comitê
Decisão sobre o caso
Recebemos hoje, com satisfação, a decisão do Comitê de Supervisão sobre esse caso. O Comitê manteve a decisão do Facebook. Por isso, não tomamos mais medidas relacionadas ao caso ou ao conteúdo.
Após análise das recomendações do Comitê incluídas na decisão, atualizaremos essa publicação.
Leia a decisão do Comitê sobre o caso
Recomendações
Em 17 de setembro de 2021, o Facebook respondeu à recomendação do Comitê sobre o caso. Estamos implementando totalmente uma recomendação e não tomamos nenhuma ação em relação às outras duas, porque o Facebook já está fazendo este trabalho.
Recomendação nº. 1 (Iniciativa já feita pelo Facebook)
O Facebook deve realizar uma análise de proporcionalidade para identificar diversas medidas menos intrusivas do que a remoção do conteúdo, inclusive a identificação de conteúdo, a introdução de atrito nas publicações para evitar interações ou o compartilhamento e o rebaixamento. Todas essas medidas de monitoramento devem ser claramente informadas a todos os usuários e sujeitas à apelação.
Nosso compromisso: Nossas consultas às partes interessadas especialistas deixaram claro que, no contexto de uma emergência de saúde, alguns tipos de desinformação levam a lesões corporais iminentes. Por isso, removemos da nossa plataforma o conteúdo que possa causar danos.
Assim, continuaremos a usar medidas menos intrusivas do que a remoção quando for identificado uma potencial lesão corporal, mas não iminente, para conteúdo que contenha desinformações relacionadas à pandemia de COVID-19. Continuaremos empenhados junto com os verificadores de fatos para avaliar possíveis desinformações, além de reduzir a distribuição de conteúdo falso.
Considerações: Em nossa resposta ao caso 2020-006-FB-FBR-7, discutimos que removemos alguns conteúdos da plataforma porque nossas consultas globais às partes interessadas deixaram claro que lesões corporais iminentes podem ser causadas por desinformações sobre uma emergência de saúde como a pandemia de COVID-19. Por exemplo, sabemos pelo nosso trabalho com a Organização Mundial da Saúde e outras autoridades de saúde pública que, se as pessoas acharem que há uma cura para a COVID-19, elas provavelmente não seguirão as práticas de saúde seguras, como distanciamento social ou uso de máscaras. Taxas exponenciais de replicação viral significam que o comportamento de uma pessoa pode transmitir o vírus a milhares de outras em poucos dias.
A proporcionalidade faz parte da nossa estratégia de combate à desinformação na área de saúde. Quando o conteúdo que dissemina desinformação sobre a COVID-19 não atinge o limite de lesão corporal iminente, nossas respostas são menos intrusivas do que a remoção. Mas quando o conteúdo atinge o limite de dano iminente, removemos de nossa plataforma.
Assim, nossa abordagem para combater desinformação relacionada à pandemia de COVID-19 envolve uma série de medidas proporcionais. Primeiro, identificamos o conteúdo que acreditamos estar relacionado às vacinas COVID-19 e COVID-19, bem como subtópicos específicos, como segurança da vacina. Nessas identificações, fornecemos links para recursos de saúde externos autorizados, como a Organização Mundial de Saúde.
Além disso, trabalhamos com nossa rede de parceiros de verificação de fatos independentes para avaliar rapidamente o conteúdo que pode conter desinformação. Tomamos todas as seguintes medidas de monitoramento quando um verificador de fatos classifica um conteúdo como falso:
- Aplicamos um rótulo de aviso ao conteúdo que inclui um link para o artigo dos verificadores de fatos denunciando a desinformação.
- Reduzimos a distribuição do conteúdo para que menos pessoas possam visualizar.
- Notificamos qualquer pessoa que compartilhou o conteúdo anteriormente ou que tente compartilhá-lo daqui em diante, que as informações são falsas.
- Usamos automação e análise humana para dimensionar o impacto desses verificadores de fatos, detectando itens de conteúdo idênticos ou quase idênticos, aplicando rótulos a eles e reduzindo sua distribuição.
Na Central de Transparência, explicamos sobre nossa abordagem em caso de desinformação, para que os usuários possam entender nossa estratégia. Além disso, continuamos a analisar como podemos fornecer mais informações aos usuários quando tomamos medidas em seu conteúdo.
Na maioria dos casos, os usuários podem informar quando discordam de uma decisão de conteúdo do Facebook, inclusive quando há remoção de conteúdo de acordo com nossas políticas de desinformação sobre COVID-19. Além disso, quando o conteúdo criado por um usuário recebe uma classificação de verificação de fatos, o usuário pode fazer uma apelação diretamente ao verificador. Estamos avaliando outras formas de melhorar o processo de apelação para remoções de conteúdo e conteúdo verificado.
Próximas etapas: Não teremos mais atualizações para esta recomendação.
Recomendação nº. 2 (Iniciativa já feita pelo Facebook)
Por conta do contexto da pandemia de COVID-19, a Meta deve tomar providências técnicas que priorizem a verificação de possíveis desinformações sobre a saúde compartilhadas por autoridades públicas e que eles tomem conhecimento, levando em consideração o contexto local.
Nosso compromisso: Itens de conteúdo que contêm possível desinformação sobre a COVID-19 já têm prioridade na ferramenta que nossos parceiros de verificação de fatos independentes usam para decidir o conteúdo a ser avaliado. Para preservar a independência de nossos verificadores de fatos, no entanto, não exigimos a análise de itens específicos de conteúdo.
Considerações: Temos mais de 80 parceiros de verificação de fatos independentes em mais de 60 idiomas e mais de 100 países. Os verificadores de fatos analisam um conteúdo e avaliam sua precisão. Este processo ocorre de forma independente da Meta. O volume de conteúdo avaliado pelos verificadores de fatos pode ser grande e, por isso, escolhem o que analisar de acordo com uma série de prioridades. Conforme descrevemos na Central de Ajuda, os parceiros de verificação de fatos priorizam alegações comprovadamente falsas, principalmente as atuais ou as que estejam em alta e sejam importantes para pessoas comuns, o que inclui desinformação sobre COVID-19. No entanto, não exigimos que nossos verificadores de fatos classifiquem itens específicos de conteúdo, pois isso prejudicaria sua independência.
Os verificadores de fatos usam uma ferramenta personalizada para identificar o potencial conteúdo para análise. O conteúdo nessa fila pode ser classificado de acordo com fatores como alcance e assunto, incluindo se um conteúdo está relacionado à saúde. A ferramenta também permite que os verificadores de fatos filtrem e classifiquem o conteúdo por tópico, plataforma (por exemplo, Facebook ou Instagram) ou formato (por exemplo, imagens ou vídeos). Além disso, durante eventos de perfil de destaque ou de notícias urgentes, usamos a detecção de palavras-chave para agrupar conteúdo relacionado em um só lugar, facilitando a localização dos verificadores de fatos. Usamos esse recurso para agrupar conteúdo sobre COVID-19.
Por meio desses recursos e da prioridade estratégica aplicada à COVID-19, qualquer conteúdo que possa ser verificado e contenha possível desinformação sobre COVID-19, seja compartilhado por autoridades de saúde pública ou outros, tem prioridade.
Além desses processos, também investimos muito em oferecer suporte adicional aos verificadores de fatos e conectá-los aos recursos necessários para lidar melhor com a desinformação na área de saúde. Por exemplo:
- Lançamos um programa de subsídio de emergência de 1 milhão de dólares para apoiar verificadores de fatos no combate à COVID-19, em parceria com a Rede Internacional de Verificação de Fatos (IFCN).
- Lançamos um programa de bolsas de saúde de um ano com dez organizações de verificação de fatos que participam do nosso programa de verificação de fatos para trazer novos membros da equipe e ajudá-los a abordar a desinformação de saúde na verificação de fatos. As organizações participantes estão na África, Ásia, Europa, Índia, América Latina e Oriente Médio.
- Lançamos recentemente uma nova parceria com o Digital Health Lab da Meedan, uma organização global de tecnologia sem fins lucrativos, para apoiar os verificadores de fatos no combate à desinformação na área de saúde online. O Digital Health Lab da Meedan facilitará diversas sessões de treinamento virtual entre sua equipe de médicos, cientistas e especialistas em saúde e os especialistas terceirizados em verificação de fatos da Meta e os parceiros terceirizados de verificação de fatos da Meta.
Próximas etapas: Não teremos mais atualizações para esta recomendação.
Recomendação nº. 3 (implementação completa)
O Facebook deve fornecer mais transparência nos Padrões da Comunidade sobre Notícias Falsas em relação ao conteúdo elegível para verificação de fatos, incluindo se as contas de instituições públicas estão sujeitas à verificação de fatos.
Nosso compromisso: Atualizaremos a seção Notícias Falsas dos Padrões da Comunidade com mais informações sobre o funcionamento do programa de verificação de fatos.
Considerações: Em nossa Central de Transparência, prestaremos informações sobre o funcionamento do nosso programa de verificação de fato, inclusive uma descrição das prioridades e o que não se enquadra nele. Uma descrição mais detalhada está disponível em nossa Central de Ajuda do Publisher. Como resultado desta recomendação, atualizaremos a seção Notícia falsas dos Padrões da Comunidade com links para ambos os recursos.
Conforme explicamos na Central de Ajuda do Publisher:
“[O]pinião e discurso de políticos não são se enquadra na verificação de fatos... Ao avaliar se é aplicável, pedimos aos nossos parceiros de verificação de fatos que analisem os políticos em todos os níveis. Definimos “políticos” como os candidatos que concorrem a um cargo, os ocupantes atuais de cargos e, por extensão, muitos dos nomeados de seus gabinetes, além de partidos políticos e seus líderes. Em muitos casos, solicitamos que os verificadores de fatos usem sua experiência e julgamento para determinar se um indivíduo é um político, como no caso de um representante eleito em meio período”.
A associação de uma “instituição pública” a um “político” depende do contexto local. Contamos com a experiência de nossos verificadores de fatos independentes para fazer essa determinação.
Próximas etapas: Atualizaremos a seção Notícias Falsas dos Padrões da Comunidade com essas alterações até o final deste mês.