Avançar no setor de IA com esforços abertos e colaborativos
Os desafios do conteĂșdo prejudicial afetam todo o setor de tecnologia e a sociedade como um todo. Ă por esse motivo que utilizamos cĂłdigo aberto na nossa tecnologia a fim de disponibilizĂĄ-la para outras pessoas. Acreditamos que a colaboração com a comunidade de IA incentivarĂĄ a pesquisa e o desenvolvimento, criarĂĄ novas maneiras de detectar e prevenir conteĂșdo prejudicial e ajudarĂĄ a manter as pessoas seguras.
Veja aqui algumas tecnologias cujo cĂłdigo abrimos nos Ășltimos anos, incluindo duas concorrĂȘncias que lideramos no setor:
O XLM-R Ă© um modelo de machine learning que primeiro Ă© treinado em um idioma e depois Ă© usado com outros sem dados adicionais de treinamento. Com as pessoas postando conteĂșdo em mais de 160 idiomas nas tecnologias da Meta, o XLM-R possibilita que usemos um modelo para vĂĄrios idiomas em vez de um por idioma. Dessa maneira, identificamos com mais facilidade discursos de Ăłdio e outros conteĂșdos violadores em uma grande variedade de idiomas, alĂ©m de lançar produtos em vĂĄrias lĂnguas de uma vez sĂł. Abrimos o cĂłdigo dos nossos modelos para que a comunidade de pesquisa possa melhorar o desempenho dos prĂłprios modelos multilĂngues. Meta: oferecer Ă s pessoas a melhor experiĂȘncia nas nossas plataformas, independentemente do idioma que falam.
O Linformer Ă© uma arquitetura transformadora que analisa bilhĂ”es de conteĂșdos no Facebook e no Instagram em diversas regiĂ”es do mundo. Ele facilita a detecção de discursos de Ăłdio e de conteĂșdo que incite a violĂȘncia. Publicamos nossas pesquisas e abrimos o cĂłdigo do Linformer para que outros pesquisadores e engenheiros pudessem aprimorar seus modelos. Meta: criar um novo modelo de IA que aprenda com texto, imagens e diĂĄlogo e detecte de maneira eficiente discurso de Ăłdio, trĂĄfico de pessoas, bullying e outras formas de conteĂșdo prejudicial.
Desafio de detecção de deepfakes
Criamos um concurso com a Microsoft, a Partnership on AI (Parceria em IA), e acadĂȘmicos de vĂĄrias universidades para encontrar a tecnologia que melhor detecte quando a IA foi usada com o objetivo de alterar um vĂdeo e enganar os visualizadores. Nossa contribuição para o Desafio de detecção de deepfakes foi encomendar um conjunto de dados realista, de que o setor precisava, para ajudar a detectar deepfakes. Meta: incentivar o setor a criar novas maneiras de detectar e prevenir o uso de mĂdia manipulada por IA para enganar as pessoas.
Desafio dos memes de Ăłdio
Criamos um concurso com o Getty Images e o DrivenData para acelerar a pesquisa sobre o problema de detecção do discurso de Ăłdio combinando imagens e texto. Nossa contribuição para o Desafio dos memes de Ăłdio foi criar um conjunto de dados Ășnico com mais de dez mil exemplos para que os pesquisadores pudessem usĂĄ-los no trabalho com facilidade. Meta: incentivar o setor a criar novas abordagens e mĂ©todos de detecção do discurso de Ăłdio multimodal.