Cómo invierte Meta en tecnología
ÚLTIMA ACTUALIZACIÓN 19 ENE. 2022
A continuación, se detallan las inversiones realizadas en tecnología de inteligencia artificial para mejorar la manera en que nuestras herramientas entienden el contenido:
- Desarrollamos una nueva arquitectura denominada Linformer, que analiza contenido en Facebook e Instagram en diversas regiones de todo el mundo.
- Creamos un nuevo sistema denominado Reinforced Integrity Optimizer, que aprende de las señales online para mejorar nuestra capacidad de detectar el lenguaje que incita al odio.
- Mejoramos una herramienta de coincidencia de imágenes, que se conoce como SimSearchNet, que permite a nuestra tecnología detectar distinciones sutiles en el contenido, de modo que podamos tomar medidas respecto de la desinformación.
- Incorporamos las herramientas de idiomas denominadas XLM y XLM-R, con las que creamos clasificadores que entienden el mismo concepto en varios idiomas. Esto significa que, cuando nuestra tecnología puede aprender en un idioma, puede mejorar su rendimiento en otros, lo que resulta particularmente útil para idiomas que son menos comunes en internet.
- Desarrollamos un sistema integral de comprensión de entidades, que analiza el contenido para determinar si incluye lenguaje que incita al odio.
Iniciativas de colaboración abiertas que nos ponen a la cabeza del sector de inteligencia artificial
Los desafíos que trae aparejado el contenido dañino afectan a todo el sector tecnológico y a la sociedad en general. Por este motivo, nuestra tecnología es de código abierto, es decir, está disponible para que otras personas la usen. Creemos que una actitud abierta y de colaboración con la comunidad de inteligencia artificial impulsará la investigación y el desarrollo, creará nuevas formas de detectar y prevenir el contenido dañino, y protegerá la seguridad de todos.
Estas son algunas de las tecnologías con código abierto que pusimos a disposición en los últimos años, incluidas dos competencias del sector que dirigimos:
XLM-R
XLM-R es un modelo de aprendizaje automático entrenado en un idioma, que luego se usa con otros idiomas sin necesidad de datos de entrenamiento adicionales. Las personas publican contenido en más de 160 idiomas en las tecnologías de Meta, por lo que XLM-R nos permite usar un modelo para varios idiomas, en lugar de uno por idioma. De este modo, nos resulta más fácil identificar el lenguaje que incita al odio y otro contenido infractor en una amplia variedad de idiomas y lanzar productos en varios idiomas a la vez. Dejamos abierto el código de nuestros modelos y código, de modo que la comunidad de investigación pueda mejorar el rendimiento de sus modelos multilingües.
Goal: Para ofrecer a las personas la mejor experiencia en nuestras plataformas, independientemente del idioma que hablan.Linformer
Linformer es una arquitectura de transformación que analiza miles de millones de contenidos en Facebook e Instagram en diferentes regiones de todo el mundo. Linformer permite detectar lenguaje que incita al odio y contenido que incita a la violencia. Publicamos nuestra investigación y dejamos abierto el código de Linformer para que los investigadores e ingenieros puedan mejorar sus modelos.
Goal: Para crear un nuevo modelo de inteligencia artificial que aprenda de texto, imágenes y lenguaje, y detecte con eficiencia el lenguaje que incita al odio, la trata de personas, el bullying y otras formas de contenido dañino.Deepfake Detection Challenge
Creamos una competencia con Microsoft, Partnership on AI y académicos de varias universidades para desarrollar tecnología que detecte mejor los casos en que se usó inteligencia artificial para alterar un video a fin de engañar a los espectadores. Nuestra contribución al Deepfakes Detection Challenge fue la puesta en marcha de un conjunto de datos realista, que no había en el sector, para detectar deepfakes.
Goal: Para estimular al sector para que se creen nuevas formas de detectar archivos multimedia manipulados con inteligencia artificial y evitar que se utilicen para engañar a las personas.Hateful Memes Challenge
Creamos una competencia con Getty Images y DrivenData para acelerar la investigación sobre el problema de la detección de lenguaje que incita al odio que combina texto e imágenes. Nuestra contribución al Hateful Memes Challenge fue crear un conjunto de datos único con más de 10.000 ejemplos que los investigadores pudieran usar fácilmente en su trabajo.
Goal: Para estimular al sector para que se creen nuevos enfoques y métodos para detectar el lenguaje que incita al odio multimodal.