Revisión precisa de contenido de alto impacto mediante comprobación cruzada
ĆLTIMA ACTUALIZACIĆN 12 NOV. 2024
El 6 de diciembre de 2022, el Consejo asesor de contenido publicó una opinión consultiva sobre las polĆticas de comprobación cruzada de Meta. Para abordar todas las recomendaciones de forma exhaustiva, hemos llegado a un acuerdo con el Consejo para efectuar revisiones y responder en el plazo de 90 dĆas. Para obtener mĆ”s información sobre el sistema de comprobación cruzada, consulta esta publicación del Centro de transparencia.
Información general sobre el sistema de comprobación cruzada
Los usuarios de Facebook e Instagram crean miles de millones de elementos de contenido cada dĆa. Moderar contenido a una escala tan grande plantea diversos retos, como encontrar un equilibrio adecuado entre objetivos y valores importantes. Queremos ser capaces de revisar contenido potencialmente infractor con rapidez y eliminarlo en caso de que realmente incumpla nuestras polĆticas. Sin embargo, debemos equilibrar este objetivo con el riesgo de incurrir en falsos positivos (es decir, la eliminación errónea de contenido que no incumple las normas) a fin de proteger la libertad de expresión de los usuarios. Con āeliminaciónā del contenido nos estamos refiriendo aquĆ de forma mĆ”s general a las acciones que llevamos a cabo en relación con la integridad, lo que puede incluir, por ejemplo, el uso de pantallas de advertencia o la eliminación de pĆ”ginas.
Con el fin de equilibrar estas distintas consideraciones, Meta ha implementado el sistema de comprobación cruzada para identificar aquel contenido que presente un mayor riesgo de generar falsos positivos y para proporcionar niveles de revisión adicionales con los que reducir ese riesgo. Este tipo de comprobación facilita mĆ”s niveles de revisión en el caso de determinado contenido que nuestros sistemas internos marcan como infractor (ya sea mediante automatización o debido a una revisión manual), con el objetivo de evitar o minimizar los errores de moderación que tienen mĆ”s probabilidades de generar falsos positivos y que, sin la comprobación cruzada, podrĆan llegar a producirse a causa de diversos factores, como la necesidad de entender los distintos matices o contextos posibles. En este caso, con ācontenidoā nos estamos refiriendo a aquel que se revisa mediante nuestro sistema de comprobación cruzada, el cual tambiĆ©n usamos para revisar otras acciones, como la eliminación de una pĆ”gina o un perfil. Aunque el sistema de comprobación cruzada proporciona capas de revisión adicionales, los revisores aplican las mismas Normas comunitarias que se siguen con el resto del contenido que se publica en Facebook o Instagram.
El sistema de comprobación cruzada desempeƱa una función esencial en materia de protección de los derechos humanos. Por ejemplo, el sistema incluye entidades y publicaciones de periodistas que informan desde zonas en conflicto, asĆ como lĆderes comunitarios que dan a conocer casos de odio o violencia. En las revisiones basadas en la comprobación cruzada se tiene en cuenta el contexto, lo que resulta muy Ćŗtil para tomar las medidas adecuadas en cuanto al contenido. Este tipo de revisiones tambiĆ©n puede aplicarse a entidades cĆvicas, en aquellos casos en que los usuarios tengan mĆ”s interĆ©s por saber quĆ© estĆ”n diciendo sus lĆderes.
AdemĆ”s, la comprobación cruzada tiene un papel muy importante en la gestión de las relaciones de Meta con muchos de nuestros socios empresariales. Por ejemplo, eliminar por error contenido que hayan publicado una pĆ”gina o un perfil que cuenten con muchos seguidores puede llevar a experiencias negativas tanto para los socios empresariales de Meta como para el elevado nĆŗmero de usuarios que los siguen. TambiĆ©n aplicamos el sistema de comprobación cruzada a algunos grupos de Facebook de gran tamaƱo, en los que un error puede llegar a afectar a cientos de miles o millones de usuarios. Esta comprobación no exime a esos grupos o los socios empresariales de Meta de cumplir nuestras polĆticas de contenido, pero a veces proporciona niveles de revisión adicionales para garantizar que estas polĆticas se apliquen con precisión.
Los usuarios de Facebook e Instagram publican miles de millones de elementos de contenido cada dĆa. Incluso con miles de revisores dedicĆ”ndose exclusivamente a ello en todo el mundo, es imposible revisar manualmente todo el contenido que tiene probabilidades de incumplir nuestras Normas comunitarias. Antes de que nadie lo denuncie, nuestra tecnologĆa detecta de forma proactiva la mayor parte del contenido infractor que eliminamos. Cuando alguien publica contenido en Facebook o Instagram, nuestra tecnologĆa comprueba si es posible que el contenido incumpla las Normas comunitarias. En muchos casos la detección es un asunto sencillo: la publicación infringe claramente nuestras polĆticas o no lo hace. Sin embargo, en algunos casos, el contenido se remite a un revisor humano para que lleve a cabo una evaluación mĆ”s detallada.
Nuestros sistemas de revisión principales emplean tecnologĆa para priorizar el contenido que es probable que infrinja gravemente nuestras polĆticas, lo que incluye contenido āviralā que se difunde con rapidez. Cuando los sistemas marcan contenido para remitirlo a una revisión manual, nuestros revisores toman decisiones difĆciles que a menudo implican tener en cuenta diversos matices. Aunque siempre procuramos tomar las decisiones correctas, somos los primeros en reconocer que a veces incurrimos en falsos positivos y marcamos contenido para su eliminación por infringir las polĆticas de Meta cuando en realidad no las incumple. Debido a esto, Meta ha invertido en la prevención de errores para revisar mĆ”s a fondo estos falsos positivos y mitigar sus consecuencias. Una de estas estrategias para evitar errores es la comprobación cruzada.
La comprobación cruzada es un sistema que se usa para garantizar que las decisiones relacionadas con el cumplimiento de las normas se toman con precisión y recurriendo a niveles adicionales de revisión manual. Si durante una comprobación cruzada un revisor confirma que el contenido infringe nuestras Normas comunitarias, garantizaremos que se cumplan estas polĆticas y tomaremos medidas en consecuencia respecto al contenido infractor. En función de la complejidad del contenido, es posible que apliquemos varios niveles de revisión, lo que incluye en casos poco frecuentes una revisión por parte de directivos. Si el Ćŗltimo revisor determina que el contenido en cuestión no incumple nuestras Normas comunitarias, puede anular la acción inicial y mantener el contenido en la plataforma.
PrÔcticas anteriores relacionadas con la comprobación cruzada
En 2013 implementamos por primera vez el sistema que actualmente conocemos como ācomprobación cruzadaā. Los detalles de este sistema han ido evolucionando aƱo tras aƱo y, cuando ha sido posible, hemos proporcionado fechas e intervalos de fechas para indicar cuĆ”ndo tenĆan lugar estos cambios.
Para determinar a quĆ© contenido o entidades se les aplicaban revisiones basadas en la comprobación cruzada, nuestros equipos identificaban y creaban listas de usuarios o entidades que consideraban que tenĆan un riesgo asociado mĆ”s alto de generar falsos positivos que pudieran hacer que tomĆ”ramos medidas contra ellos. Con āriesgo de falso positivoā nos referimos al riesgo de tomar medidas de forma errónea contra contenido o entidades que no incumplen realmente nuestras Normas comunitarias. A fin de determinar quĆ© usuarios y entidades se asociaban con un mayor riesgo de falso positivo, nuestros equipos tenĆan en cuenta diversos criterios, incluido el tipo de usuario o entidad (por ejemplo, un funcionario electo, un periodista, un socio empresarial importante o una organización de derechos humanos), el nĆŗmero de seguidores y la materia que trataba la entidad en cuestión. āEntidadā es un tĆ©rmino general con el que nos referimos al lugar donde el contenido puede originarse o aparecer (como un grupo, una pĆ”gina, una cuenta o un usuario).
Cuando los usuarios o las entidades incluidos en esas listas publicaban contenido o llevaban a cabo acciones que nuestros sistemas marcaban como potencialmente infractores de nuestras polĆticas, aƱadĆamos el contenido o la entidad en cuestión a una cola para realizar una revisión basada en la comprobación cruzada.
A partir del 2020 implementamos cambios para hacer que la mayor parte del contenido de la cola se priorizara a partir de un marco de riesgos, mediante el cual se asignaba un nivel de riesgo de falso positivo que podĆa producirse en caso de que Meta eliminara erróneamente ese contenido. En general, el marco de riesgos se basaba en estos tres factores: (1)Ā el nivel de confidencialidad de la entidad, (2)Ā la gravedad de la supuesta infracción y (3)Ā la severidad de la medida que potencialmente se aplicarĆa para hacer cumplir las normas.
PrÔcticas actuales relacionadas con la comprobación cruzada
Tal como sucede con todas nuestras polĆticas y procesos, buscamos constantemente formas de mejorar, y no dejamos de introducir cambios. A principios de este aƱo identificamos mĆ”s oportunidades para mejorar el sistema de comprobación cruzada. Un cambio estructural que hemos implementado consiste en la división de este sistema en dos componentes: la revisión secundaria general (GSR) y la revisión secundaria de entidades confidenciales (SSR). Si bien vamos a seguir aplicando el enfoque basado en listas que hemos descrito antes para incluir un porcentaje de determinados usuarios y entidades en la SSR, en el caso de la GSR estamos trabajando para que el contenido de todos los usuarios y entidades en Facebook e Instagram pueda someterse a revisiones basadas en la comprobación cruzada en función de un sistema de priorización dinĆ”mico que llamamos āclasificador de comprobación cruzadaā.
La GSR implica contratar a revisores y personas de nuestro equipo de regiones para que realicen una revisión secundaria de contenido y entidades que podrĆan infringir nuestras polĆticas antes de que apliquemos cualquier medida. En este tipo de revisión no nos basamos Ćŗnicamente en la identidad de un usuario o una entidad a la hora de determinar a quĆ© contenido aplicamos la revisión basada en la comprobación cruzada. El clasificador de comprobación cruzada clasifica el contenido en función del riesgo de falso positivo a partir de criterios como lo delicado del tema (lo actual o delicado que es el tema en cuestión), la severidad de las medidas (lo rigurosas que serĆan las acciones que se tomarĆan para hacer cumplir las normas), la probabilidad de que se diera un falso positivo, el alcance previsto y el nivel de confidencialidad de la entidad (en función sobre todo de las listas creadas como se ha descrito anteriormente). Actualmente este clasificador ya se utiliza para la mayor parte de las revisiones basadas en la comprobación cruzada.
La SSR es parecida al sistema de comprobación cruzada que usĆ”bamos antes. Para determinar a quĆ© contenido o entidades se aplica la SSR, seguimos manteniendo las listas de usuarios y entidades para los que se llevan a cabo revisiones adicionales basadas en la comprobación cruzada en caso de que se marquen como contenido que potencialmente infringe nuestras Normas comunitarias. Sin embargo, hemos aƱadido controles al proceso de creación y revisión de dichas listas. Antes de septiembre de 2020, la mayorĆa de los empleados podĆan aƱadir a un usuario o una entidad a la lista de comprobación cruzada. Desde entonces, aunque cualquier empleado puede solicitar que se aƱada a un usuario o una entidad a las listas de comprobación cruzada, solo un grupo de empleados designados cuentan con la autorización necesaria para aƱadir usuarios o entidades a la lista.
Actualmente, las responsabilidades de gobernanza de la lista de SSR recaen en la organización de operaciones globales, con la ayuda de nuestros equipos jurĆdicos y asociados, que aportan su experiencia y sus conocimientos especializados. Aunque la estructura de informe del equipo de operaciones globales es independiente del equipo de polĆticas pĆŗblicas de Meta, se consulta a este Ćŗltimo sobre decisiones basadas en la comprobación cruzada, ya que conciernen a muchos Ć”mbitos de moderación de contenido de la empresa. En estos casos, el equipo de operaciones puede recurrir a la experiencia del equipo de polĆticas pĆŗblicas de Meta, conjuntamente con nuestros expertos regionales y revisores especializados independientes del lenguaje, para potenciar las perspectivas culturales y locales. Las distintas estructuras de informe contribuyen a garantizar la independencia de la revisión respecto a cualquier influencia polĆtica o económica. Asimismo, para mantener listas que sean pertinentes y apropiadas, hemos desarrollado un proceso de revisión anual diligente para la auditorĆa de entidades que figuran en listas de SSR. Dicho proceso tiene la finalidad de garantizar su cumplimiento constante de los requisitos, y seguiremos mejorĆ”ndolo con el tiempo.
En los Ćŗltimos meses, Meta ha llevado a cabo, de media, varios miles de revisiones diarias basadas en la comprobación cruzada, la mayor parte de las cuales se han realizado mediante GSR. Estas cifras representan una proporción pequeƱa si tenemos en cuenta los millones de elementos de contenido que se marcan a diario por incumplir nuestras Normas comunitarias y a los que se aplican las medidas correspondientes. En este momento, las SSR constituyen una minorĆa dentro de estas revisiones diarias. Prevemos que tenga lugar un cambio continuo en el nĆŗmero de tareas de revisión basadas en la comprobación cruzada como resultado de la priorización de las GSR durante finales de 2021 y tras la entrada en 2022.
Si un elemento de contenido procede de un individuo o una entidad incluidos en la lista de SSR, lo normal es que el equipo de regiones lo revise primero. Tras esta primera revisión, el equipo de escalado llevarĆ” a cabo otra para confirmar si el contenido realmente incumple las normas. En general, si el equipo de regiones determina que el contenido no infringe nuestras polĆticas, el equipo de escalado no llevarĆ” a cabo otra revisión. Si un elemento de contenido procede de un individuo o una entidad a los que el clasificador de comprobación cruzada ha dado prioridad, lo normal es que contratistas o el equipo de regiones se encarguen de revisarlo, salvo que el equipo de escalado cuente con capacidad adicional para hacerlo. Como sucedĆa con el sistema de comprobación cruzada que se usaba antes, es posible que los problemas especialmente complejos requieran llevar a cabo mĆ”s revisiones, incluida, en casos poco frecuentes, una revisión por parte de los directivos. Si en la Ćŗltima revisión se determina que el contenido incumple nuestras Normas comunitarias, lo eliminaremos. En cambio, si se llega a la conclusión de que no las incumple, lo mantendremos publicado.
Desde el 16 de octubre de 2021, a aproximadamente 660Ā 000 usuarios y entidades se les han aplicado medidas que requieren alguna forma de SSR en función de su inclusión en las listas que hemos descrito mĆ”s arriba. Este nĆŗmero varĆa frecuentemente a medida que aƱadimos usuarios y entidades a esas listas o los suprimimos de ellas segĆŗn los criterios que seguimos para su inclusión, que no dejan de evolucionar. Estos son algunos ejemplos de usuarios y entidades que cumplen los requisitos para su inclusión en la lista de SSR:
- Entidades relacionadas con eventos de alto riesgo o el escalado de respuestas. Actualmente contamos con un proceso informal que los equipos que se preparan para un evento de alto riesgo pueden seguir para identificar entidades que tengan muchas probabilidades de que se les apliquen medidas excesivas para hacer cumplir las normas. Por ejemplo, si un usuario publica contenido controvertido y este se vuelve viral (como un vĆdeo en directo en el que se muestra violencia policial), podemos identificar a ese usuario para una SSR con el objetivo de evitar que el contenido se elimine erróneamente.
- Entidades incluidas para cumplir fines legales. En determinados casos, recurrimos a la SSR para cumplir con obligaciones legales o normativas.
- Personajes públicos y editores con mucha visibilidad. Identificamos este tipo de entidades para su inclusión en la lista de SSR porque la aplicación excesiva de medidas puede traducirse en una experiencia negativa para un amplio sector de los usuarios.
- Poblaciones marginadas. Identificamos a defensores de los derechos humanos, disidentes polĆticos y otras personas que consideramos que pueden ser objeto de acoso, ataques en grupo o denuncias masivas respaldados por estados u otras entidades antagonistas, con el fin de protegerlos ante este tipo de ataques.
- Entidades cĆvicas. Nos guiamos por criterios objetivos y los conocimientos de nuestros equipos especializados en polĆticas de distintas regiones para identificar polĆticos, funcionarios del Gobierno, instituciones, organizaciones, grupos de defensa e influencers del sector social. Incluimos estas entidades para la SSR con el fin de evitar errores que limitarĆan el discurso polĆtico que no infringe las normas y para no tener un impacto involuntario en las conversaciones sobre temas cĆvicos como las elecciones, las polĆticas pĆŗblicas y los temas sociales. Queremos garantizar la paridad entre las distintas entidades cĆvicas de un mismo paĆs. Por ejemplo, si incluimos un ministerio en la lista de SSR, incluirĆamos tambiĆ©n todos los demĆ”s ministerios del Gobierno de ese paĆs.
- Empresas. Determinamos quiĆ©nes son anunciantes de gran valor o que han experimentado una sobreaplicación de las polĆticas con el objetivo de proteger los ingresos y de generar una confianza duradera en nuestra plataforma.
En estos momentos estamos evaluando cómo mejorar los criterios que seguimos para identificar entidades que deberĆan someterse a una SSR. Por ejemplo, estamos explorando cómo mejorar nuestros criterios en aspectos como el nĆŗmero de seguidores, el nĆŗmero de medidas aplicadas anteriormente a causa de falsos positivos, los requisitos legales o normativos, y problemas importantes sociales o polĆticos. Los usuarios pueden solicitar que no se los incluya en la lista de SSR mediante este formulario. Meta no confirma si los usuarios forman parte de estas listas o se los ha suprimido de ellas. Sin embargo, creemos firmemente en la autonomĆa de los usuarios y revisaremos cada solicitud lo antes posible.
AdemĆ”s de los dos componentes del sistema de comprobación cruzada, tambiĆ©n disponemos de un sistema interno de prevención de errores conocido como revisión dinĆ”mica mĆŗltiple (DMR, por sus siglas en inglĆ©s). Se trata de un sistema que nos permite someter casos revisados a una nueva revisión para obtener un voto mayoritario sobre cada decisión (por ejemplo, si la mayorĆa de los revisores estĆ” de acuerdo sobre una decisión, se cierra el caso), de modo que podamos tener mayor confianza en la pertinencia de la decisión. Usamos este sistema para mejorar la calidad y exactitud de la revisión por parte del equipo humano y mitigar el riesgo de tomar decisiones incorrectas. Para ello, ajustamos la cantidad de revisiones necesarias para tomar una decisión definitiva en función de distintos factores, tales como la viralidad, el nĆŗmero de visualizaciones y la posibilidad de contribuir a un daƱo (por ejemplo, posibles infracciones de nuestras polĆticas sobre explotación sexual o personas y organizaciones peligrosas).
Futuras intervenciones en aras de la transparencia en la comprobación cruzada
En respuesta a la decisión de diciembre de 2022 del Consejo asesor de contenido relativa a la remisión de opiniones consultivas sobre polĆticas, tambiĆ©n nos hemos comprometido a realizar una serie de intervenciones para garantizar la transparencia de la prevención de errores. Estas intervenciones incluyen:
- Una interacción estructurada y robusta con nuestros equipos internos de derechos humanos y civiles, nuestros socios de confianza y otras organizaciones externas de la sociedad civil, con el objeto de analizar formas de fundamentar los criterios que usamos en la identificación de entidades de interés público para las listas de comprobación cruzada.
- La exploración de un proceso de propuesta de listas de comprobación mÔs formal por parte de grupos de la sociedad civil a escala local, regional y mundial.
- La inversión en recursos de calidad a cargo de la revisión y la formación, a medida que asignamos revisores que conozcan los idiomas y cuenten con experiencia regional a todas las decisiones basadas en la comprobación cruzada, en la medida de lo posible.
- La implementación de acuerdos robustos para establecer el nivel de servicio (SLA, por sus siglas en inglés) relativos a decisiones de revisión en todos los sistemas de prevención de errores, que nos permitan optimizar el modelo actual de asignación de revisores para garantizar la mayor rapidez posible en las revisiones en cada idioma.
Aunque hemos implementado mejoras importantes en el sistema de comprobación cruzada, todavĆa estamos investigando formas de garantizar un equilibrio adecuado entre nuestros objetivos de eliminar contenido que incumpla nuestras Normas comunitarias y la necesidad de minimizar los errores de aplicación de normas que tengan consecuencias graves.