Conteúdo com medidas tomadas

ÚLTIMA ATUALIZAÇÃO 6 DE NOV DE 2024
Mensuramos o número de itens de conteúdo (como posts, fotos, vídeos ou comentários) ou contas sobre os quais tomamos medidas por violarem nossos padrões. Esta métrica mostra a escala da nossa atividade de monitoramento. "Tomar medidas" pode incluir remover um item do conteúdo do Facebook ou Instagram, cobrir com um aviso fotos ou vídeos que podem ser perturbadores para alguns públicos ou desativar contas. Quando encaminhamos o conteúdo para autoridades de aplicação da lei, ele não é contabilizado.
Pode ser tentador ler o conteúdo sobre o qual tomamos medidas como um indicador da eficácia com que descobrimos violações ou do impacto dessas violações sobre nossa comunidade. No entanto, o volume de conteúdo sobre o qual tomamos medidas é apenas parte da história. Ele não reflete quanto tempo demorou para detectar uma violação ou quantas vezes os usuários viram a violação enquanto ela esteve no Facebook ou Instagram.
Essa métrica pode aumentar ou diminuir devido a fatores externos que estão fora de nosso controle. Como exemplo, considere um ataque cibernético em que os spammers compartilham dez milhões de posts com a mesma URL maliciosa. Após a detecção da URL, removemos todas esses posts. O conteúdo sobre o qual tomamos medidas relataria dez milhões de itens de conteúdo, o que é um volume enorme. Mas esse número não reflete necessariamente que melhoramos nas medidas contra spam. Ele reflete mais que os spammers decidiram atacar o Facebook naquele mês com spam não sofisticado fácil de detectar. O conteúdo sobre o qual tomamos medidas também não indica quanto desse spam realmente afetou os usuários: as pessoas podem tê-lo visto algumas vezes, algumas centenas ou milhares de vezes. (Essas informações são capturadas na prevalência.) Após o ataque cibernético, o conteúdo sobre o qual tomamos medidas pode diminuir consideravelmente, mesmo que nossa detecção melhore.
policy-image
Um item de conteúdo pode ser qualquer coisa: um post, uma foto, um vídeo ou um comentário.
Como contabilizamos conteúdo e ações
A maneira como contabilizamos itens de conteúdo individuais pode ser complexa e evoluiu com o tempo. Em julho de 2018, atualizamos nossa metodologia para esclarecer sobre quantos itens de conteúdo discretos tomamos medidas por violar nossas políticas e continuaremos a amadurecer e aprimorar nossa metodologia como parte do nosso compromisso de fornecer as métricas mais precisas e significativas. Em geral, nossa intenção é fornecer uma representação precisa do número total de itens de conteúdo sobre os quais tomamos medidas por violar nossas políticas.
Existem algumas diferenças na forma como contamos o conteúdo no Facebook e no Instagram.
No Facebook, um post sem foto ou vídeo ou uma única foto ou vídeo conta como um conteúdo. Isso significa que todos os itens a seguir, se removidos, seriam contabilizados como um conteúdo com medidas tomadas: um post com uma foto, o que é uma violação, um post com texto, o que é uma violação, e um post com texto e uma foto, um ou ambos, o que é uma violação.
Quando um post no Facebook tem várias fotos ou vídeos, contabilizamos cada foto ou vídeo como um conteúdo. Por exemplo, se removermos duas fotos violadoras de um post no Facebook com quatro fotos, contabilizamos isso como dois itens de conteúdo com medidas tomadas: um para cada foto removida. Se removermos o post inteiro, também contabilizaremos o post. Por isso, por exemplo, se removermos um post no Facebook com quatro fotos, contabilizamos isso como cinco itens de conteúdo com medidas tomadas: um para cada foto e um para o post. Se removermos apenas algumas das fotos e vídeos anexados de um post, contaremos apenas esses itens de conteúdo.
No Instagram, removemos todo o post se ele contiver conteúdo violador e contabilizamos como um item do conteúdo com medidas tomadas, independentemente de quantas fotos ou vídeos exista no post.
Às vezes, um item do conteúdo viola vários padrões. Para fins de mensuração, atribuímos a ação a apenas uma violação principal. Normalmente, isso corresponde à violação ao padrão mais severo. Em outros casos, pedimos ao analista para tomar uma decisão quanto ao motivo principal da violação.
Como rotulamos as violações
Sempre que tomamos medidas em relação a um determinado conteúdo, rotulamos o conteúdo com a política violada. Quando os analistas examinam as denúncias, primeiro determinam se o material viola nossas políticas ou não. Se determinarem que sim, farão a rotulagem com o tipo de violação.
Antigamente, não solicitávamos que nossos analistas rotulassem as violações quando eles tomavam decisões. Em vez disso, contávamos com as informações que os usuários nos forneciam quando enviavam a denúncia. Em 2017, atualizamos nosso processo de análise para registrar informações mais detalhadas sobre os motivos pelos quais os analistas removiam determinado conteúdo, o que nos permitiu estabelecer métricas mais precisas. Também atualizamos nossa tecnologia de detecção para classificar as violações conforme elas são encontradas, sinalizadas ou removidas usando os mesmos rótulos das decisões dos analistas.
policy-image
Para contabilizar o conteúdo que sofreu uma ação devido a uma violação padrão específica, devemos rotular a violação toda vez que tomamos uma medida.
Contas com medidas tomadas no Facebook por serem falsas
Para contas falsas, relatamos “contas com medidas tomadas” em oposição a “conteúdo com medidas tomadas”. “Contas com medidas tomadas” é o número de contas que desativamos por serem falsas.
Atenção
Conteúdo com medidas tomadas e contas com medidas tomadas não incluem exemplos de quando bloqueamos a criação de contas ou de conteúdo, como fazemos quando detectamos a criação de uma conta falsa ou spammers tentando post com alta frequência. Se incluíssemos esses bloqueios, aumentaria drasticamente os números (provavelmente em milhões por dia) para contas falsas desativadas e conteúdo de spam removido.
Quando usamos URLs, removemos qualquer conteúdo atual ou futuro que contenha esses links. Mensuramos a quantidade de conteúdo com medidas tomadas com base em se um usuário tenta exibir esse conteúdo no Facebook.
Como mensuramos medidas tomadas sobre contas, Páginas, Grupos e Eventos
Pode haver grandes volumes de conteúdo em contas de usuários, Páginas, Grupos ou Eventos no Facebook. Um desses objetos, como um todo, pode violar nossas políticas com base em um conteúdo ou comportamento existente nele. Geralmente, podemos determinar que uma conta, Página, Grupo ou evento viola os padrões sem analisar todo o conteúdo que ele possui. Se desativarmos uma conta, uma Página, um Grupo ou um Evento, todo o conteúdo dentro dela ficará automaticamente inacessível para os usuários.
Nas métricas incluídas no Relatório de Aplicação de Padrões da Comunidade, contamos apenas o conteúdo nas contas, Páginas, Grupos ou Eventos que determinamos ser violadores durante nossas análises desses objetos e sobre os quais tomamos medidas explicitamente. Não contabilizamos qualquer conteúdo removido automaticamente quando desativamos a conta, a Página, o Grupo ou o evento que continha esse conteúdo.
Exceto para contas falsas no Facebook, este relatório não inclui atualmente nenhuma métrica relacionada a contas por violações. Esse relatório também não apresenta métricas de Páginas, grupos ou eventos nos quais realizamos ações por violação, apenas o conteúdo desses objetos.
Veja o mais recente Relatório de Aplicação de Padrões da Comunidade