Como funciona a tecnologia de monitoramento

ÚLTIMA ATUALIZAÇÃO 12 DE NOV DE 2024
A Meta usa a tecnologia para aplicar os PadrÔes da Comunidade. Nossas equipes trabalham juntas para desenvolver e treinar a tecnologia. Veja como funciona.
Criar modelos e fazer previsÔes
O processo começa com nossas equipes de inteligĂȘncia artificial. Elas criam modelos de machine learning que podem executar tarefas, como reconhecimento do conteĂșdo de uma foto ou a compreensĂŁo de texto. Em seguida, nossas equipes de integridade, responsĂĄveis por encaminhar a detecção e aplicar nossas polĂ­ticas, se baseiam nesses modelos para criar outros mais especĂ­ficos que fazem previsĂ”es sobre pessoas e conteĂșdos. Essas previsĂ”es nos ajudam a aplicar nossas polĂ­ticas.
Por exemplo, um modelo de IA prevĂȘ se um conteĂșdo Ă© discurso de Ăłdio ou conteĂșdo violento e explĂ­cito. Um sistema separado, nossa tecnologia de monitoramento, determina se Ă© preciso tomar alguma medida, como excluir, rebaixar ou enviar o conteĂșdo para uma equipe de anĂĄlise humana para anĂĄlise adicional.
Aprendendo por repetição, verificado por humanos
Quando criamos tecnologia de monitoramento de conteĂșdo, nĂłs a treinamos para identificar determinados sinais. Por exemplo, algumas tecnologias procuram por nudez nas fotos, enquanto outras aprendem a compreender textos. A princĂ­pio, um novo tipo de tecnologia pode ter pouca confiança em relação Ă  violação das nossas polĂ­ticas por um conteĂșdo.
As equipes de anålise podem então tomar a decisão final, e a nossa tecnologia pode aprender com cada decisão humana. Com o tempo, depois de aprender com milhares de decisÔes humanas, a tecnologia se torna mais precisa.
Nossas políticas também evoluem com o tempo para acompanhar as alteraçÔes no nosso produto, nas normas sociais e no idioma. Como resultado, o treinamento da nossa tecnologia e das equipes de anålise é um processo gradual e iterativo.
Detectando violaçÔes recorrentes
A tecnologia Ă© muito boa na detecção de conteĂșdo recorrente, milhĂ”es de vezes se necessĂĄrio. Nossa tecnologia tomarĂĄ medidas em relação a um conteĂșdo se ele for igual a outro conteĂșdo violador ou bem parecido com ele. Isso Ă© Ăștil principalmente em campanhas de desinformação, memes e outros conteĂșdos virais que podem se espalhar de forma extremamente rĂĄpida.
Fazer distinçÔes sutis
A tecnologia pode encontrar e remover o mesmo conteĂșdo repetidamente. Mas, Ă© um grande desafio fazer uma mĂĄquina compreender as nuances na escolha de palavras ou como pequenas diferenças podem mudar o contexto.
Misleading content 1
A primeira imagem Ă© o conteĂșdo enganoso original, que inclui desinformação sobre segurança da saĂșde pĂșblica.
Misleading content 2
A segunda imagem Ă© uma captura de tela da primeira, desta vez com a barra de menus do computador na parte superior.
Misleading content 3
Finalmente, a terceira imagem parece extremamente semelhante à primeira e à segunda, mas ela tem duas pequenas alteraçÔes de palavra que tornam a manchete precisa e não mais falsa.
Os humanos compreendem isso de forma claramente fĂĄcil, mas para a tecnologia essa compreensĂŁo Ă© difĂ­cil. Existe o risco de um dos lados cometer um grande erro. Se a tecnologia for muito agressiva, removerĂĄ milhĂ”es de posts que nĂŁo sĂŁo violadores. Se nĂŁo for suficientemente agressiva, considerarĂĄ a captura de tela com a barra de menus diferente do original e nĂŁo tomarĂĄ medidas em relação ao conteĂșdo.
Passamos muito tempo trabalhando nisso. Nos Ășltimos anos, fizemos vĂĄrios investimentos para ajudar nossa tecnologia a melhorar na detecção de diferenças sutis nos conteĂșdos. Ela fica mais precisa a cada dia e continua a aprender.
Subtile distinctions