Como a Meta prioriza o conteúdo a ser analisado
ÚLTIMA ATUALIZAÇÃO 12 DE NOV DE 2024
Contudo, algumas vezes a identificação é mais difícil. Talvez o sentimento por trás do post não seja claro, a linguagem seja particularmente complexa ou as imagens dependam muito do contexto. Nesses casos, realizamos análises adicionais usando pessoas.
Priorização de fatores para análise humana
Ao determinar qual conteúdo nossas equipes de análise humana devem revisar primeiro, consideramos três fatores principais:
GRAVIDADE
Qual é a probabilidade de o conteúdo causar danos, tanto online como offline?
VIRALIDADE
Com que rapidez o URL do conteúdo está sendo compartilhado?
PROBABILIDADE DE VIOLAÇÃO
Qual é a probabilidade de o conteúdo em questão realmente violar nossas políticas?
As equipes de análise humana ajudam nossa tecnologia a melhorar
Nossas equipes de análise humana usam o conhecimento que têm em certas áreas de política e localidades para fazer julgamentos difíceis, muitas vezes sutis. Sempre que os analistas tomam uma decisão, usamos as informações dela para treinar nossa tecnologia. Com o passar do tempo, após milhões de decisões, nossa tecnologia fica melhor, permitindo-nos remover mais conteúdo violador.
Ajudando os analistas a tomar as decisões certas
A tecnologia ajuda as equipes de análise humana a fazer o que fazem de melhor
Como muitos modelos de machine learning, nossa tecnologia melhora com o tempo conforme recebe mais exemplos de conteúdo violador. Isso significa que as equipes de análise humana têm conseguido se concentrar mais em conteúdos graves, virais, sutis, novos e complexos, exatamente o tipo de decisão em que a análise humana tende a tomar melhores decisões do que a tecnologia.
Perguntas comuns sobre priorização da análise de conteúdo
Como a priorização do monitoramento mudou ao longo do tempo?
No passado, as equipes de análise humana passavam a maior parte do tempo analisando conteúdos denunciados pelas pessoas. Isso significava que, muitas vezes, elas passavam muito tempo com conteúdo de baixa gravidade ou claramente não violador, e não tinham tempo suficiente com o conteúdo mais grave e com maior probabilidade de danos. Também significava que muitas decisões humanas não eram tão úteis para melhorar nossa tecnologia de monitoramento.
Nossa abordagem atual de priorização trata desses problemas, permitindo-nos analisar primeiro o conteúdo com maior potencial de causar danos e melhorar nossa tecnologia mais rápido.
As equipes de análise humana analisam todas as denúncias de usuário?
Não necessariamente. Tanto as equipes de análise humana como a tecnologia desempenham um papel importante na análise das denúncias de usuário. Quando a nossa tecnologia consegue analisar um determinado conteúdo, ela toma medidas automaticamente (ou não) no conteúdo em questão.
Como vocês garantem que a sua tecnologia não será afetada pelas opiniões/pontos de vista das pessoas?
Para abordar as questões de justiça e inclusão associadas à implantação de IA nas tecnologias da Meta, criamos nossa equipe de IA Responsável, uma equipe multidisciplinar dedicada de especialistas em ética, cientistas sociais e políticos, especialistas em políticas, pesquisadores de inteligência artificial e engenheiros. O objetivo geral da equipe é desenvolver diretrizes, ferramentas e processos para lidar com os temas de responsabilidade da IA e ajudar a garantir que esses recursos sistêmicos estejam amplamente disponíveis na Meta.