Cómo trabajan los equipos de revisión

ÚLTIMA ACTUALIZACIÓN 12 NOV. 2024
Meta suele recibir preguntas sobre cómo funciona nuestro proceso de revisión de contenido, de qué forma aplicamos nuestras políticas y si nuestros equipos de revisión las aplican en todo el mundo. A continuación se detalla el trabajo que realizan los equipos de revisión y cómo usan nuestra tecnología para llevarlo a cabo.
Revisión de contenido: cuándo usamos tecnología y cuándo recurrimos a la revisión manual
Cuando se infringen las Normas comunitarias, Meta responde empleando sistemas de aplicación de normas de contenido. Por ejemplo, usamos herramientas de aprendizaje automático e inteligencia artificial para identificar y suprimir una gran cantidad de contenido infractor, a menudo, antes de que nadie lo vea.
En aquellos casos en los que nuestra tecnología pase algo por alto o necesite más información, recurrimos a miles de revisores de todo el mundo para aplicar nuestras Normas comunitarias.
Como las posibles infracciones de contenido se remiten a los equipos de revisión, a cada revisor se le asigna una lista de publicaciones que debe evaluar de forma individual. En ocasiones, esta revisión tan solo implica examinar una publicación para determinar si infringe nuestras políticas (por ejemplo, una imagen que incluye desnudos de adultos) en los casos en que nuestra tecnología no lo haya detectado primero.
En otros casos, el contexto es clave. Por ejemplo, cabe la posibilidad de que nuestra tecnología no pueda determinar con seguridad si una publicación contiene bullying, que es un ámbito normativo que requiere contexto y matices adicionales, ya que suele reflejar la naturaleza de las relaciones personales. En este caso, enviaremos la publicación a los equipos de revisión que cuenten con los conocimientos adecuados del tema y del idioma para que la revisen en más detalle. Si se requiere, también se puede remitir el asunto a expertos de los equipos de operaciones globales o de políticas de contenido.
Cuando es necesario, también proporcionamos a los revisores información adicional del contenido denunciado. Por ejemplo, palabras que tradicionalmente se han usado como insultos racistas podrían considerarse lenguaje que incita al odio si las usa una persona, pero también una forma de empoderamiento personal si las comparte otro individuo en un contexto distinto. En algunos casos, podemos proporcionar a los revisores más contexto sobre esas palabras para que apliquen nuestras políticas y decidan si la publicación debería permanecer en la plataforma o eliminarse.