Criar modelos e fazer previsões
O processo começa com as nossas equipas de inteligência artificial. As equipas criam modelos de aprendizagem automática que conseguem executar tarefas como reconhecer o que está numa foto ou compreender texto. Em seguida, as nossas equipas de integridade, que são responsáveis pelo dimensionamento da deteção e pela aplicação das regras das nossas políticas, baseiam-se nestes modelos para criar modelos mais específicos que fazem previsões sobre as pessoas e os conteúdos. Estas previsões ajudam-nos a aplicar as nossas políticas. Por exemplo, um modelo de IA prevê se um determinado conteúdo é discurso de incentivo ao ódio ou conteúdo gráfico e violento. Um sistema em separado (a nossa tecnologia de aplicação das regras) determina se devemos tomar medidas sobre o conteúdo, tais como eliminá-lo, despromovê-lo ou enviá-lo para uma equipa de revisão humana para ser analisado de forma mais profunda.
Aprendizagem por repetição verificada por pessoas
Quando criamos uma nova tecnologia para a aplicação das regras de conteúdos, preparamo-la para procurar determinados sinais. Por exemplo, algumas tecnologias procuram indícios de nudez nas fotos, enquanto outras tecnologias aprendem a compreender textos. No início, um novo tipo de tecnologia pode ter pouca certeza sobre se um determinado conteúdo infringe as nossas políticas.
As equipas de revisão podem tomar a decisão final e a nossa tecnologia pode aprender com cada decisão humana. A tecnologia torna-se mais rigorosa ao longo do tempo, após aprender com milhares de decisões humanas.
As nossas políticas também evoluem ao longo do tempo para acompanhar as alterações dos nossos produtos, normas sociais e idioma. Assim sendo, a preparação da nossa tecnologia e a formação das equipas de revisão são processos graduais e iterativos.
Detetar infrações repetidasA tecnologia faz um bom trabalho em detetar os mesmos conteúdos inúmeras vezes (milhões de vezes, se for necessário). A nossa tecnologia toma decisões sobre um novo conteúdo se este corresponder ou se assemelhar bastante a outro conteúdo em infração. Esta abordagem é particularmente útil em campanhas de informações incorretas virais, memes e outros conteúdos que se difundem muito rapidamente.