Como a Meta investe na tecnologia

ÚLTIMA ATUALIZAÇÃO 19 DE JAN DE 2022
Investimos na inteligĂȘncia artificial para melhorar nossa capacidade de detectar conteĂșdo violador e de proteger as pessoas. Seja para melhorar um sistema jĂĄ existente ou introduzir um novo, esses investimentos nos ajudam a automatizar decisĂ”es relacionadas a conteĂșdos para podermos responder de forma mais rĂĄpida e reduzir erros.
Veja aqui alguns dos investimentos que fizemos na tecnologia de IA para aprimorar a compreensĂŁo de conteĂșdo das nossas ferramentas:
  • Desenvolvemos uma nova arquitetura chamada Linformer, que analisa conteĂșdo no Facebook e no Instagram em diversas regiĂ”es do mundo.
  • Criamos um sistema chamado Reinforced Integrity Optimizer (Otimizador de Integridade Reforçada), que aprende com os sinais online para melhorar nossa capacidade de detectar discurso de Ăłdio.
  • Aprimoramos uma ferramenta de correspondĂȘncia de imagens chamada SimSearchNet, que ajuda nossa tecnologia a detectar diferenças sutis no conteĂșdo para a tomada de medidas contra a desinformação.
  • Incorporamos ferramentas de idioma chamadas XLM e XLM-R, que nos ajudam a criar classificadores que compreendem o mesmo conceito em vĂĄrios idiomas. Ou seja, quando nossa tecnologia aprende em um idioma, ela aprimora seu desempenho em outros, o que Ă© especialmente Ăștil para idiomas menos comuns na internet.
  • Criamos um sistema de compreensĂŁo da entidade como um todo, que analisa o conteĂșdo para ajudar a determinar se ele contĂ©m discurso de Ăłdio.
Avançar no setor de IA com esforços abertos e colaborativos
Os desafios do conteĂșdo prejudicial afetam todo o setor de tecnologia e a sociedade como um todo. É por esse motivo que utilizamos cĂłdigo aberto na nossa tecnologia a fim de disponibilizĂĄ-la para outras pessoas. Acreditamos que a colaboração com a comunidade de IA incentivarĂĄ a pesquisa e o desenvolvimento, criarĂĄ novas maneiras de detectar e prevenir conteĂșdo prejudicial e ajudarĂĄ a manter as pessoas seguras.
Veja aqui algumas tecnologias cujo cĂłdigo abrimos nos Ășltimos anos, incluindo duas concorrĂȘncias que lideramos no setor:
O XLM-R Ă© um modelo de machine learning que primeiro Ă© treinado em um idioma e depois Ă© usado com outros sem dados adicionais de treinamento. Com as pessoas postando conteĂșdo em mais de 160 idiomas nas tecnologias da Meta, o XLM-R possibilita que usemos um modelo para vĂĄrios idiomas em vez de um por idioma. Dessa maneira, identificamos com mais facilidade discursos de Ăłdio e outros conteĂșdos violadores em uma grande variedade de idiomas, alĂ©m de lançar produtos em vĂĄrias lĂ­nguas de uma vez sĂł. Abrimos o cĂłdigo dos nossos modelos para que a comunidade de pesquisa possa melhorar o desempenho dos prĂłprios modelos multilĂ­ngues.
Meta: oferecer Ă s pessoas a melhor experiĂȘncia nas nossas plataformas, independentemente do idioma que falam.
O Linformer Ă© uma arquitetura transformadora que analisa bilhĂ”es de conteĂșdos no Facebook e no Instagram em diversas regiĂ”es do mundo. Ele facilita a detecção de discursos de Ăłdio e de conteĂșdo que incite a violĂȘncia. Publicamos nossas pesquisas e abrimos o cĂłdigo do Linformer para que outros pesquisadores e engenheiros pudessem aprimorar seus modelos.
Meta: criar um novo modelo de IA que aprenda com texto, imagens e diĂĄlogo e detecte de maneira eficiente discurso de Ăłdio, trĂĄfico de pessoas, bullying e outras formas de conteĂșdo prejudicial.
Criamos um concurso com a Microsoft, a Partnership on AI (Parceria em IA), e acadĂȘmicos de vĂĄrias universidades para encontrar a tecnologia que melhor detecte quando a IA foi usada com o objetivo de alterar um vĂ­deo e enganar os visualizadores. Nossa contribuição para o Desafio de detecção de deepfakes foi encomendar um conjunto de dados realista, de que o setor precisava, para ajudar a detectar deepfakes.
Meta: incentivar o setor a criar novas maneiras de detectar e prevenir o uso de mĂ­dia manipulada por IA para enganar as pessoas.
Criamos um concurso com o Getty Images e o DrivenData para acelerar a pesquisa sobre o problema de detecção do discurso de Ăłdio combinando imagens e texto. Nossa contribuição para o Desafio dos memes de Ăłdio foi criar um conjunto de dados Ășnico com mais de dez mil exemplos para que os pesquisadores pudessem usĂĄ-los no trabalho com facilidade.
Meta: incentivar o setor a criar novas abordagens e métodos de detecção do discurso de ódio multimodal.