Cómo funciona la tecnología de detección de infracciones
ÚLTIMA ACTUALIZACIÓN 12 NOV. 2024
Creación de modelos y predicciones
El proceso comienza con nuestros equipos de inteligencia artificial. Estos crean modelos de aprendizaje automático que pueden realizar tareas, como reconocer lo que se muestra en una foto o entender un texto. Después, nuestros equipos de integridad, que se encargan de escalar la detección y aplicación de nuestras políticas, toman estos modelos como base para crear otros más específicos que hacen predicciones sobre las personas y el contenido. Estas predicciones nos permiten aplicar nuestras políticas.
Por ejemplo, un modelo de inteligencia artificial predice si un contenido es violento y gráfico o si se considera lenguaje que incita al odio. Un sistema independiente, que es nuestra tecnología de detección de infracciones, determina si se debe tomar una medida, como eliminar o penalizar el contenido, o remitirlo a un equipo de revisión manual para que lo analice en más detalle.
Aprendizaje por repetición, verificado por revisores humanos
Cuando creamos por primera vez tecnología nueva para la aplicación de políticas de contenido, la entrenamos para buscar determinadas señales. Por ejemplo, cierta tecnología busca desnudos en fotos, mientras que otra aprende a interpretar el texto. Al principio, un tipo nuevo de tecnología puede no tener la certeza suficiente para determinar si un contenido infringe nuestras políticas.
Después, los equipos de revisión pueden tomar la decisión final, y nuestra tecnología puede aprender de cada decisión humana. Con el tiempo, tras aprender de miles de estas decisiones, la tecnología se vuelve más precisa.
Nuestras políticas también evolucionan con el tiempo, a fin de reflejar los cambios en nuestros productos, las normas sociales y el lenguaje. Como resultado, el proceso de entrenar nuestra tecnología y formar a los equipos de revisión es gradual e iterativo.
Detección de infracciones reiteradasLa tecnología es muy eficaz para detectar el mismo contenido una y otra vez, millones de veces, si es necesario. Nuestra tecnología tomará medidas respecto a un contenido nuevo si este coincide o se asemeja mucho a otro contenido infractor. Esto es de especial utilidad en el caso de campañas de desinformación virales, memes y otro contenido que se pueda difundir con extrema rapidez.
Distinciones sutiles
La tecnología puede detectar y suprimir el mismo contenido una y otra vez. Sin embargo, es un enorme reto conseguir que una máquina entienda los matices en la elección de términos o cómo el contexto puede cambiar con pequeñas diferencias.
La primera imagen es el contenido engañoso original, que incluye información errónea sobre la seguridad de la salud pública.
La segunda imagen es una captura de pantalla de la primera, pero esta vez se muestra la barra de menú del ordenador en la parte superior.
Por último, la tercera imagen es extremadamente similar a la primera y la segunda, pero hay un pequeño cambio en dos términos que aporta precisión y veracidad al titular.
Para las personas, esto es bastante fácil de entender, pero no lo es para la tecnología. Existe el riesgo de cometer demasiados errores de un lado o del otro. Si la tecnología es muy agresiva, suprimirá millones de publicaciones que no infringen las normas. Si no lo es tanto, pensará que la captura de pantalla con la barra de menú es diferente de la original y no tomará medidas sobre el contenido.
Dedicamos mucho tiempo a trabajar en este asunto. A lo largo de los últimos años, hemos realizado varias inversiones para perfeccionar nuestra tecnología a fin de que detecte mejor las distinciones sutiles en el contenido. Cada día se vuelve más precisa a medida que va aprendiendo.