Cómo trabajan los equipos de revisión

ÚLTIMA ACTUALIZACIÓN 12 NOV. 2024
Meta suele recibir preguntas sobre cómo funciona nuestro proceso de revisión de contenido, de qué manera aplicamos nuestras políticas y si nuestros equipos de revisión las aplican en todo el mundo. A continuación, se detalla el trabajo que realizan los equipos de revisión y cómo usan nuestra tecnología para llevarlo adelante.
Revisión de contenido: cuándo usamos tecnología y cuándo recurrimos a la revisión manual
Cuando se infringen las Normas comunitarias, Meta responde empleando sistemas de aplicación de políticas de contenido. Por ejemplo, usamos herramientas de aprendizaje automático e inteligencia artificial para identificar y eliminar una gran cantidad de contenido infractor, con frecuencia antes de que alguien lo vea.
En esas instancias en que nuestra tecnología ignora alguna situación o necesita más información, recurrimos a miles de revisores de todo el mundo para aplicar nuestras Normas comunitarias.
Como las posibles infracciones de contenido se derivan a los equipos de revisión, a cada revisor se le asigna una lista de publicaciones que debe evaluar de forma individual. En ocasiones, esta revisión implica tan solo analizar una publicación para determinar si infringe nuestras políticas, por ejemplo, una imagen que contiene desnudos de adultos, en instancias en las que nuestra tecnología no lo detectó primero.
En otros casos, el contexto es clave. Por ejemplo, nuestra tecnología podría no tener la certeza de que una publicación contiene bullying, que es un ámbito normativo que requiere de contexto y matiz adicionales porque suele reflejar la naturaleza de las relaciones personales. En este caso, enviaremos la publicación a los equipos de revisión que cuenten con el conocimiento adecuado del tema y del idioma para que la revisen en más detalle. Si es necesario, también se puede escalar el asunto a expertos de los equipos de operaciones internacionales y políticas de contenido.
Cuando es necesario, también proporcionamos a los revisores información adicional del contenido reportado. Por ejemplo, palabras que históricamente se usaron como insultos raciales podrían considerarse lenguaje que incita al odio si las usa una persona, pero también una forma de empoderamiento personal si las comparte otra en un contexto diferente. En algunos casos, podemos brindar a los revisores más contexto sobre dichas palabras para que apliquen nuestras políticas y decidan si la publicación debería permanecer en la plataforma o eliminarse.