Cómo invierte Meta en tecnología
ÚLTIMA ACTUALIZACIÓN 19 ENE. 2022
A continuación se detallan las inversiones realizadas en la tecnología de inteligencia artificial para mejorar la forma en que nuestras herramientas interpretan el contenido:
- Hemos desarrollado una nueva arquitectura, denominada Linformer, que analiza contenido en Facebook e Instagram en diversas regiones de todo el mundo.
- Hemos creado un nuevo sistema, denominado Reinforced Integrity Optimizer, que aprende de las señales online para mejorar nuestra capacidad de detección del lenguaje que incita al odio.
- Hemos mejorado una herramienta de coincidencia de imágenes, que se conoce como SimSearchNet, que permite a nuestra tecnología detectar distinciones sutiles en el contenido, de forma que podamos tomar medidas en cuanto a la información errónea.
- Hemos incorporado las herramientas de idiomas denominadas XLM y XLM-R, con las que creamos clasificadores que entienden el mismo concepto en varios idiomas. Esto significa que, cuando nuestra tecnología puede aprender en un idioma, también puede mejorar su rendimiento en otros, lo que resulta particularmente útil para idiomas que son menos comunes en internet.
- Desarrollamos un sistema integral de comprensión de entidades, que analiza el contenido para determinar si incluye lenguaje que incita al odio.
Iniciativas abiertas de colaboración que nos sitúan a la vanguardia del sector de la inteligencia artificial
Los retos que supone el contenido dañino afectan a todo el sector tecnológico y a la sociedad en general. Por este motivo, nuestra tecnología es de código abierto, es decir, está disponible para que otras personas la usen. Creemos que una actitud abierta y de colaboración con la comunidad del sector de la inteligencia artificial impulsará la investigación y el desarrollo, creará nuevas formas de detectar y evitar el contenido dañino, y protegerá la seguridad de todos.
Estas son algunas de las tecnologías con código abierto que hemos puesto a disposición del público en los últimos años, incluidas dos competiciones del sector que dirigimos:
XLM-R
XLM-R es un modelo de aprendizaje automático entrenado en un idioma que después se usa con otros idiomas sin necesidad de datos de entrenamiento adicionales. Las personas publican contenido en más de 160 idiomas en las tecnologías de Meta, por lo que XLM-R nos permite usar un modelo para varios idiomas, en lugar de uno por idioma. Así nos resulta más fácil identificar el lenguaje que incita al odio y otro contenido infractor en una amplia variedad de idiomas y lanzar productos en varios idiomas a la vez. Hemos puesto a disposición del público todos nuestros modelos y nuestro código, de forma que la comunidad de investigación pueda mejorar el rendimiento de sus modelos multilingües.
Objetivo: para ofrecer a las personas la mejor experiencia en nuestras plataformas, independientemente del idioma que hablan.Linformer
Linformer es una arquitectura de transformación que analiza miles de millones de contenidos en Facebook e Instagram en diferentes regiones de todo el mundo. Linformer permite detectar lenguaje que incita al odio y contenido que incita a la violencia. Hemos publicado nuestra investigación y hemos puesto a disposición de todos el código de Linformer para que los investigadores e ingenieros puedan mejorar sus modelos.
Objetivo: para crear un nuevo modelo de inteligencia artificial que aprenda de texto, imágenes y lenguaje, y detecte con eficacia el lenguaje que incita al odio, el tráfico de personas, el bullying y otras formas de contenido dañino.Deepfake Detection Challenge
Hemos creado una competición con Microsoft, Partnership on AI y académicos de varias universidades para desarrollar tecnología que detecte mejor los casos en los que se ha usado inteligencia artificial para alterar un vídeo con la finalidad de engañar a los espectadores. Nuestra contribución al Deepfakes Detection Challenge ha sido la puesta en marcha de un conjunto de datos realista, que no había en el sector, para detectar deepfakes.
Objetivo: para estimular el sector a fin de que se creen nuevas formas de detectar contenido multimedia manipulado con inteligencia artificial y evitar que se utilice para engañar a la gente.Hateful Memes Challenge
Creamos una competición con Getty Images y DrivenData para acelerar la investigación sobre el problema de la detección de lenguaje que incita al odio que combina texto e imágenes. Nuestra contribución al Hateful Memes Challenge fue crear un conjunto de datos único con más de 10 000 ejemplos para que los investigadores los pudieran usar fácilmente en su trabajo.
Objetivo: para estimular el sector a fin de que se creen nuevos enfoques y métodos para detectar el lenguaje que incita al odio multimodal.