Como a Meta investe em tecnologia

ATUALIZADO 19/01/2022
Investimos em inteligĂȘncia artificial para melhorar a nossa capacidade de detetar conteĂșdos em infração e manter as pessoas em segurança. Quer se trate de melhorar um sistema existente ou começar a utilizar um novo, estes investimentos ajudam-nos a automatizar as decisĂ”es tomadas sobre conteĂșdos, para que possamos responder mais rapidamente e reduzir a quantidade de erros.
Seguem-se alguns dos investimentos que fizemos em tecnologia de IA para melhorar a forma como as nossas ferramentas compreendem os conteĂșdos:
  • Desenvolvemos uma nova arquitetura chamada Linformer, que analisa conteĂșdos no Facebook e no Instagram em vĂĄrias regiĂ”es do mundo.
  • CriĂĄmos um novo sistema chamado Reinforced Integrity Optimizer (Otimizador de Integridade Reforçado), que aprende com sinais online para melhorar a nossa capacidade de deteção de discurso de incentivo ao Ăłdio.
  • MelhorĂĄmos uma ferramenta de correspondĂȘncia de imagens chamada SimSearchNet, que ajuda a nossa tecnologia a detetar diferenças subtis nos conteĂșdos para podermos tomar medidas a respeito da desinformação.
  • IncorporĂĄmos ferramentas de idioma chamadas XLM e XLM-R, que nos ajudam a criar classificadores que compreendem o mesmo conceito em vĂĄrios idiomas. Isto significa que quando a nossa tecnologia pode aprender num idioma, tambĂ©m pode melhorar o seu desempenho noutros, o que Ă© especialmente Ăștil em idiomas menos comuns na Internet.
  • CriĂĄmos um sistema de compreensĂŁo de entidades, que analisa os conteĂșdos para ajudar a determinar se contĂȘm discurso de incentivo ao Ăłdio.
Liderar o setor de IA com esforços de colaboração
Os prejuĂ­zos causados pelos conteĂșdos prejudiciais afetam todo o setor da tecnologia e toda a sociedade em grande escala. Por esse motivo, criamos a nossa tecnologia em cĂłdigo aberto para disponibilizĂĄ-la a outras pessoas. Acreditamos que a disponibilização da tecnologia e a colaboração com a comunidade de IA vai fomentar a investigação e o desenvolvimento, criar novas formas de detetar e impedir a existĂȘncia de conteĂșdos prejudiciais e ajudar a manter as pessoas em segurança.
Eis algumas tecnologias que disponibilizĂĄmos em cĂłdigo aberto nos Ășltimos anos, incluindo duas que venceram a concorrĂȘncia:
O XLM-R Ă© um modelo de aprendizagem automĂĄtica preparado num idioma e utilizado com outros idiomas sem dados de preparação adicionais. Com pessoas que publicam conteĂșdos em mais de 160 idiomas nas tecnologias da Meta, o XLM-R permite-nos utilizar um modelo para muitos idiomas, em vez de um modelo por idioma. Isto ajuda-nos a identificar mais facilmente o discurso de incentivo ao Ăłdio e outros conteĂșdos em infração num grande leque de idiomas e a lançar produtos em vĂĄrios idiomas de uma sĂł vez. CriĂĄmos os nossos modelos e cĂłdigo em cĂłdigo aberto para que a comunidade de investigação possa melhorar o desempenho dos seus modelos multilingues.
Objetivo: dar Ă s pessoas a melhor experiĂȘncia nas nossas plataformas, independentemente do idioma que falam.
O Linformer Ă© uma arquitetura transformadora que analisa milhares de milhĂ”es de conteĂșdos no Facebook e no Instagram em diferentes regiĂ”es de todo o mundo. O Linformer ajuda a detetar discurso de incentivo ao Ăłdio e conteĂșdos que incitam Ă  violĂȘncia. PublicĂĄmos a nossa investigação e tornĂĄmos o cĂłdigo do Linformer aberto, para que outros investigadores e engenheiros possam melhorar os seus modelos.
Objetivo: criar um novo modelo de IA que aprende a partir de texto, imagens e discurso e deteta eficazmente discurso de incentivo ao Ăłdio, trĂĄfico de pessoas, bullying e outras formas de conteĂșdos prejudiciais.
Criåmos uma competição com a Microsoft, o nosso Parceiro de IA, e professores de vårias universidades para desenvolver tecnologias que detetem melhor quando a IA foi utilizada para modificar um vídeo de modo a enganar os visualizadores. O nosso contributo para o Desafio de Deteção de FalsificaçÔes foi encomendar um conjunto de dados realista, de que o setor precisava, para ajudar a detetar falsificaçÔes.
Objetivo: incentivar o setor a criar novas formas de detetar e impedir a utilização de conteĂșdos multimĂ©dia manipulados com IA para enganar as pessoas.
CriĂĄmos uma competição com a Getty Images e a DrivenData para acelerar a investigação sobre o problema da deteção de discurso de incentivo ao Ăłdio presente na combinação de imagens e textos. O nosso contributo para o Desafio dos Memes de Discurso de Incentivo ao Ódio foi criar um conjunto de dados Ășnico de mais de 10 000 exemplos, para que os investigadores pudessem utilizĂĄ-los no seu trabalho.
Objetivo: incentivar o setor a criar novos métodos e abordagens para detetar discurso multimodal de incentivo ao ódio.