Cómo perfecciona Meta la tecnología
ÚLTIMA ACTUALIZACIÓN 19 ENE. 2022
A veces, una persona capta de inmediato el significado de cierto contenido, pero a la tecnología no le queda tan claro. Para proteger a la gente, Meta debe entrenar la inteligencia artificial para que aprenda a detectar publicaciones que infringen las normas.
Por ejemplo, el siguiente contenido combina texto e imágenes. Dos de las imágenes tienen buenas intenciones, pero las otras dos posiblemente no.
Sin el entrenamiento adecuado, a la mayoría de los sistemas de inteligencia artificial les resulta difícil establecer estas distinciones. O leen el texto y determinan el significado literal de las palabras, o bien analizan la imagen para determinar el significado general del tema sobre el que trata la foto. Las personas, por otro lado, agrupan el texto y la imagen de forma instintiva para entender el contenido.
Una forma de abordar esta situación es entrenar nuestra tecnología para que primero analice todos los componentes de una publicación y, después, determine su significado real. Esto puede resultar muy útil para que la inteligencia artificial detecte con mayor precisión lo que una persona interpreta cuando ve la misma publicación.
También usamos un sistema que guía a la inteligencia artificial para que aprenda directamente a partir de millones de elementos de contenido actuales y extraiga datos de entrenamiento que reflejen nuestros objetivos. Se trata de un sistema distinto a los de inteligencia artificial habituales cuyo entrenamiento se basa en datos fijos. Con este método, podemos proteger mejor a las personas del lenguaje que incita al odio y del contenido que incita a la violencia.Aún queda mucho por hacer, pero este entrenamiento ayudará a nuestra tecnología a seguir mejorando y a interpretar mejor el verdadero significado del contenido multimodal.