Como funciona a tecnologia de aplicação das regras

ATUALIZADO 12/11/2024
A Meta utiliza tecnologia para aplicar os Padrões da Comunidade. As nossas equipas trabalham em conjunto para criar e preparar a tecnologia. Vê como funciona.
Criar modelos e fazer previsões
O processo começa com as nossas equipas de inteligência artificial. As equipas criam modelos de aprendizagem automática que conseguem executar tarefas como reconhecer o que está numa foto ou compreender texto. Em seguida, as nossas equipas de integridade, que são responsáveis pelo dimensionamento da deteção e pela aplicação das regras das nossas políticas, baseiam-se nestes modelos para criar modelos mais específicos que fazem previsões sobre as pessoas e os conteúdos. Estas previsões ajudam-nos a aplicar as nossas políticas.
Por exemplo, um modelo de IA prevê se um determinado conteúdo é discurso de incentivo ao ódio ou conteúdo gráfico e violento. Um sistema em separado (a nossa tecnologia de aplicação das regras) determina se devemos tomar medidas sobre o conteúdo, tais como eliminá-lo, despromovê-lo ou enviá-lo para uma equipa de revisão humana para ser analisado de forma mais profunda.
Aprendizagem por repetição verificada por pessoas
Quando criamos uma nova tecnologia para a aplicação das regras de conteúdos, preparamo-la para procurar determinados sinais. Por exemplo, algumas tecnologias procuram indícios de nudez nas fotos, enquanto outras tecnologias aprendem a compreender textos. No início, um novo tipo de tecnologia pode ter pouca certeza sobre se um determinado conteúdo infringe as nossas políticas.
As equipas de revisão podem tomar a decisão final e a nossa tecnologia pode aprender com cada decisão humana. A tecnologia torna-se mais rigorosa ao longo do tempo, após aprender com milhares de decisões humanas.
As nossas políticas também evoluem ao longo do tempo para acompanhar as alterações dos nossos produtos, normas sociais e idioma. Assim sendo, a preparação da nossa tecnologia e a formação das equipas de revisão são processos graduais e iterativos.
Detetar infrações repetidas
A tecnologia faz um bom trabalho em detetar os mesmos conteúdos inúmeras vezes (milhões de vezes, se for necessário). A nossa tecnologia toma decisões sobre um novo conteúdo se este corresponder ou se assemelhar bastante a outro conteúdo em infração. Esta abordagem é particularmente útil em campanhas de informações incorretas virais, memes e outros conteúdos que se difundem muito rapidamente.
Fazer ligeiras distinções
A tecnologia pode detetar e remover os mesmos conteúdos inúmeras vezes. No entanto, há muitas dificuldades em fazer uma máquina compreender as nuances na escolha de palavras ou a forma como as pequenas diferenças podem alterar o contexto.
Misleading content 1
A primeira imagem é o conteúdo enganador original, que inclui informações incorretas sobre a segurança de saúde pública.
Misleading content 2
A segunda imagem é uma captura de ecrã da primeira imagem, mas com a barra de menu do computador na parte superior.
Misleading content 3
Por fim, a terceira imagem parece muito semelhante à primeira e à segunda imagens, mas tem duas pequenas alterações de palavras que tornam o título verdadeiro.
Esta situação é relativamente fácil de detetar para os humanos, mas difícil de ser detetada pela tecnologia. Há sempre um risco de errar num lado ou no outro. Se a tecnologia for muito agressiva, vai remover milhões de publicações que não estão em infração. Se a tecnologia não for agressiva o suficiente, vai considerar que a captura de ecrã com a barra de menu é diferente do original e não vai conseguir tomar medidas sobre o conteúdo.
Trabalhamos muito para melhorar isto. Ao longo dos últimos anos, fizemos vários investimentos para ajudar a melhorar a nossa tecnologia no que respeita à deteção de diferenças subtis em conteúdos. A nossa tecnologia fica diariamente mais rigorosa à medida que continua a aprender.
Subtile distinctions