Liderar o setor de IA com esforços de colaboração
Os prejuĂzos causados pelos conteĂșdos prejudiciais afetam todo o setor da tecnologia e toda a sociedade em grande escala. Por esse motivo, criamos a nossa tecnologia em cĂłdigo aberto para disponibilizĂĄ-la a outras pessoas. Acreditamos que a disponibilização da tecnologia e a colaboração com a comunidade de IA vai fomentar a investigação e o desenvolvimento, criar novas formas de detetar e impedir a existĂȘncia de conteĂșdos prejudiciais e ajudar a manter as pessoas em segurança.
Eis algumas tecnologias que disponibilizĂĄmos em cĂłdigo aberto nos Ășltimos anos, incluindo duas que venceram a concorrĂȘncia:
O XLM-R Ă© um modelo de aprendizagem automĂĄtica preparado num idioma e utilizado com outros idiomas sem dados de preparação adicionais. Com pessoas que publicam conteĂșdos em mais de 160 idiomas nas tecnologias da Meta, o XLM-R permite-nos utilizar um modelo para muitos idiomas, em vez de um modelo por idioma. Isto ajuda-nos a identificar mais facilmente o discurso de incentivo ao Ăłdio e outros conteĂșdos em infração num grande leque de idiomas e a lançar produtos em vĂĄrios idiomas de uma sĂł vez. CriĂĄmos os nossos modelos e cĂłdigo em cĂłdigo aberto para que a comunidade de investigação possa melhorar o desempenho dos seus modelos multilingues. Objetivo: dar Ă s pessoas a melhor experiĂȘncia nas nossas plataformas, independentemente do idioma que falam.
O Linformer Ă© uma arquitetura transformadora que analisa milhares de milhĂ”es de conteĂșdos no Facebook e no Instagram em diferentes regiĂ”es de todo o mundo. O Linformer ajuda a detetar discurso de incentivo ao Ăłdio e conteĂșdos que incitam Ă violĂȘncia. PublicĂĄmos a nossa investigação e tornĂĄmos o cĂłdigo do Linformer aberto, para que outros investigadores e engenheiros possam melhorar os seus modelos. Objetivo: criar um novo modelo de IA que aprende a partir de texto, imagens e discurso e deteta eficazmente discurso de incentivo ao Ăłdio, trĂĄfico de pessoas, bullying e outras formas de conteĂșdos prejudiciais.
Desafio de Deteção de FalsificaçÔes
CriĂĄmos uma competição com a Microsoft, o nosso Parceiro de IA, e professores de vĂĄrias universidades para desenvolver tecnologias que detetem melhor quando a IA foi utilizada para modificar um vĂdeo de modo a enganar os visualizadores. O nosso contributo para o Desafio de Deteção de FalsificaçÔes foi encomendar um conjunto de dados realista, de que o setor precisava, para ajudar a detetar falsificaçÔes. Objetivo: incentivar o setor a criar novas formas de detetar e impedir a utilização de conteĂșdos multimĂ©dia manipulados com IA para enganar as pessoas.
Desafio dos Memes de Discurso de Incentivo ao Ădio
CriĂĄmos uma competição com a Getty Images e a DrivenData para acelerar a investigação sobre o problema da deteção de discurso de incentivo ao Ăłdio presente na combinação de imagens e textos. O nosso contributo para o Desafio dos Memes de Discurso de Incentivo ao Ădio foi criar um conjunto de dados Ășnico de mais de 10 000 exemplos, para que os investigadores pudessem utilizĂĄ-los no seu trabalho. Objetivo: incentivar o setor a criar novos mĂ©todos e abordagens para detetar discurso multimodal de incentivo ao Ăłdio.