Cómo perfecciona Meta la tecnología

ÚLTIMA ACTUALIZACIÓN 19 ENE. 2022
En ocasiones, una persona detecta de inmediato el significado de cierto contenido, pero a la tecnología no le queda tan claro. Para proteger a las personas, Meta debe entrenar la inteligencia artificial para que aprenda a detectar publicaciones infractoras.
Por ejemplo, el siguiente contenido combina texto e imágenes. Dos de las imágenes tienen buenas intenciones, pero las otras dos posiblemente no.
how we train
Sin la capacitación correspondiente, a la mayoría de los sistemas de inteligencia artificial les resulta difícil establecer estas distinciones. O leen el texto y determinan el significado literal de las palabras, o bien analizan la imagen para determinar el significado general del asunto sobre el que trata la foto. Las personas, por otro lado, agrupan el texto y las imágenes de forma instintiva para entender el contenido.
Una forma de abordar esta situación es entrenar a nuestra tecnología para que primero analice todos los componentes de una publicación y, luego, determine su significado real. Esto puede resultar muy útil para que la inteligencia artificial detecte con mayor precisión lo que una persona ve cuando se analiza la misma publicación.
También usamos un sistema que guía a la inteligencia artificial para que aprenda directamente a partir de millones de contenidos actuales y extraiga datos de entrenamiento que reflejen nuestros objetivos. Este es diferente de los sistemas de inteligencia artificial habituales cuyo entrenamiento se basa en datos fijos. Con este método, podemos proteger mejor a las personas del lenguaje que incita al odio y del contenido que incita a la violencia.
Aún queda mucho por hacer, pero este entrenamiento ayudará a nuestra tecnología a seguir mejorando y a entender mejor el verdadero significado del contenido multimodal.