Meta
Inicio
Aplicación de políticas
Detección de infracciones
Revisar con precisión contenido de alto impacto

Revisión precisa de contenido de alto impacto mediante comprobación cruzada

ƚLTIMA ACTUALIZACIƓN 12 NOV. 2024
El 6 de diciembre de 2022, el Consejo asesor de contenido publicó una opinión consultiva sobre las políticas de comprobación cruzada de Meta. Para abordar todas las recomendaciones de forma exhaustiva, hemos llegado a un acuerdo con el Consejo para efectuar revisiones y responder en el plazo de 90 días. Para obtener mÔs información sobre el sistema de comprobación cruzada, consulta esta publicación del Centro de transparencia.
Información general sobre el sistema de comprobación cruzada
Los usuarios de Facebook e Instagram crean miles de millones de elementos de contenido cada dĆ­a. Moderar contenido a una escala tan grande plantea diversos retos, como encontrar un equilibrio adecuado entre objetivos y valores importantes. Queremos ser capaces de revisar contenido potencialmente infractor con rapidez y eliminarlo en caso de que realmente incumpla nuestras polĆ­ticas. Sin embargo, debemos equilibrar este objetivo con el riesgo de incurrir en falsos positivos (es decir, la eliminación errónea de contenido que no incumple las normas) a fin de proteger la libertad de expresión de los usuarios. Con ā€œeliminaciónā€ del contenido nos estamos refiriendo aquĆ­ de forma mĆ”s general a las acciones que llevamos a cabo en relación con la integridad, lo que puede incluir, por ejemplo, el uso de pantallas de advertencia o la eliminación de pĆ”ginas.
Con el fin de equilibrar estas distintas consideraciones, Meta ha implementado el sistema de comprobación cruzada para identificar aquel contenido que presente un mayor riesgo de generar falsos positivos y para proporcionar niveles de revisión adicionales con los que reducir ese riesgo. Este tipo de comprobación facilita mĆ”s niveles de revisión en el caso de determinado contenido que nuestros sistemas internos marcan como infractor (ya sea mediante automatización o debido a una revisión manual), con el objetivo de evitar o minimizar los errores de moderación que tienen mĆ”s probabilidades de generar falsos positivos y que, sin la comprobación cruzada, podrĆ­an llegar a producirse a causa de diversos factores, como la necesidad de entender los distintos matices o contextos posibles. En este caso, con ā€œcontenidoā€ nos estamos refiriendo a aquel que se revisa mediante nuestro sistema de comprobación cruzada, el cual tambiĆ©n usamos para revisar otras acciones, como la eliminación de una pĆ”gina o un perfil. Aunque el sistema de comprobación cruzada proporciona capas de revisión adicionales, los revisores aplican las mismas Normas comunitarias que se siguen con el resto del contenido que se publica en Facebook o Instagram.
El sistema de comprobación cruzada desempeña una función esencial en materia de protección de los derechos humanos. Por ejemplo, el sistema incluye entidades y publicaciones de periodistas que informan desde zonas en conflicto, así como líderes comunitarios que dan a conocer casos de odio o violencia. En las revisiones basadas en la comprobación cruzada se tiene en cuenta el contexto, lo que resulta muy útil para tomar las medidas adecuadas en cuanto al contenido. Este tipo de revisiones también puede aplicarse a entidades cívicas, en aquellos casos en que los usuarios tengan mÔs interés por saber qué estÔn diciendo sus líderes.
AdemÔs, la comprobación cruzada tiene un papel muy importante en la gestión de las relaciones de Meta con muchos de nuestros socios empresariales. Por ejemplo, eliminar por error contenido que hayan publicado una pÔgina o un perfil que cuenten con muchos seguidores puede llevar a experiencias negativas tanto para los socios empresariales de Meta como para el elevado número de usuarios que los siguen. También aplicamos el sistema de comprobación cruzada a algunos grupos de Facebook de gran tamaño, en los que un error puede llegar a afectar a cientos de miles o millones de usuarios. Esta comprobación no exime a esos grupos o los socios empresariales de Meta de cumplir nuestras políticas de contenido, pero a veces proporciona niveles de revisión adicionales para garantizar que estas políticas se apliquen con precisión.
Los usuarios de Facebook e Instagram publican miles de millones de elementos de contenido cada día. Incluso con miles de revisores dedicÔndose exclusivamente a ello en todo el mundo, es imposible revisar manualmente todo el contenido que tiene probabilidades de incumplir nuestras Normas comunitarias. Antes de que nadie lo denuncie, nuestra tecnología detecta de forma proactiva la mayor parte del contenido infractor que eliminamos. Cuando alguien publica contenido en Facebook o Instagram, nuestra tecnología comprueba si es posible que el contenido incumpla las Normas comunitarias. En muchos casos la detección es un asunto sencillo: la publicación infringe claramente nuestras políticas o no lo hace. Sin embargo, en algunos casos, el contenido se remite a un revisor humano para que lleve a cabo una evaluación mÔs detallada.
Nuestros sistemas de revisión principales emplean tecnologĆ­a para priorizar el contenido que es probable que infrinja gravemente nuestras polĆ­ticas, lo que incluye contenido ā€œviralā€ que se difunde con rapidez. Cuando los sistemas marcan contenido para remitirlo a una revisión manual, nuestros revisores toman decisiones difĆ­ciles que a menudo implican tener en cuenta diversos matices. Aunque siempre procuramos tomar las decisiones correctas, somos los primeros en reconocer que a veces incurrimos en falsos positivos y marcamos contenido para su eliminación por infringir las polĆ­ticas de Meta cuando en realidad no las incumple. Debido a esto, Meta ha invertido en la prevención de errores para revisar mĆ”s a fondo estos falsos positivos y mitigar sus consecuencias. Una de estas estrategias para evitar errores es la comprobación cruzada.
La comprobación cruzada es un sistema que se usa para garantizar que las decisiones relacionadas con el cumplimiento de las normas se toman con precisión y recurriendo a niveles adicionales de revisión manual. Si durante una comprobación cruzada un revisor confirma que el contenido infringe nuestras Normas comunitarias, garantizaremos que se cumplan estas políticas y tomaremos medidas en consecuencia respecto al contenido infractor. En función de la complejidad del contenido, es posible que apliquemos varios niveles de revisión, lo que incluye en casos poco frecuentes una revisión por parte de directivos. Si el último revisor determina que el contenido en cuestión no incumple nuestras Normas comunitarias, puede anular la acción inicial y mantener el contenido en la plataforma.
PrÔcticas anteriores relacionadas con la comprobación cruzada
En 2013 implementamos por primera vez el sistema que actualmente conocemos como ā€œcomprobación cruzadaā€. Los detalles de este sistema han ido evolucionando aƱo tras aƱo y, cuando ha sido posible, hemos proporcionado fechas e intervalos de fechas para indicar cuĆ”ndo tenĆ­an lugar estos cambios.
Para determinar a quĆ© contenido o entidades se les aplicaban revisiones basadas en la comprobación cruzada, nuestros equipos identificaban y creaban listas de usuarios o entidades que consideraban que tenĆ­an un riesgo asociado mĆ”s alto de generar falsos positivos que pudieran hacer que tomĆ”ramos medidas contra ellos. Con ā€œriesgo de falso positivoā€ nos referimos al riesgo de tomar medidas de forma errónea contra contenido o entidades que no incumplen realmente nuestras Normas comunitarias. A fin de determinar quĆ© usuarios y entidades se asociaban con un mayor riesgo de falso positivo, nuestros equipos tenĆ­an en cuenta diversos criterios, incluido el tipo de usuario o entidad (por ejemplo, un funcionario electo, un periodista, un socio empresarial importante o una organización de derechos humanos), el nĆŗmero de seguidores y la materia que trataba la entidad en cuestión. ā€œEntidadā€ es un tĆ©rmino general con el que nos referimos al lugar donde el contenido puede originarse o aparecer (como un grupo, una pĆ”gina, una cuenta o un usuario).
Cuando los usuarios o las entidades incluidos en esas listas publicaban contenido o llevaban a cabo acciones que nuestros sistemas marcaban como potencialmente infractores de nuestras políticas, añadíamos el contenido o la entidad en cuestión a una cola para realizar una revisión basada en la comprobación cruzada.
A partir del 2020 implementamos cambios para hacer que la mayor parte del contenido de la cola se priorizara a partir de un marco de riesgos, mediante el cual se asignaba un nivel de riesgo de falso positivo que podía producirse en caso de que Meta eliminara erróneamente ese contenido. En general, el marco de riesgos se basaba en estos tres factores: (1) el nivel de confidencialidad de la entidad, (2) la gravedad de la supuesta infracción y (3) la severidad de la medida que potencialmente se aplicaría para hacer cumplir las normas.
PrÔcticas actuales relacionadas con la comprobación cruzada
Tal como sucede con todas nuestras polĆ­ticas y procesos, buscamos constantemente formas de mejorar, y no dejamos de introducir cambios. A principios de este aƱo identificamos mĆ”s oportunidades para mejorar el sistema de comprobación cruzada. Un cambio estructural que hemos implementado consiste en la división de este sistema en dos componentes: la revisión secundaria general (GSR) y la revisión secundaria de entidades confidenciales (SSR). Si bien vamos a seguir aplicando el enfoque basado en listas que hemos descrito antes para incluir un porcentaje de determinados usuarios y entidades en la SSR, en el caso de la GSR estamos trabajando para que el contenido de todos los usuarios y entidades en Facebook e Instagram pueda someterse a revisiones basadas en la comprobación cruzada en función de un sistema de priorización dinĆ”mico que llamamos ā€œclasificador de comprobación cruzadaā€.
La GSR implica contratar a revisores y personas de nuestro equipo de regiones para que realicen una revisión secundaria de contenido y entidades que podrían infringir nuestras políticas antes de que apliquemos cualquier medida. En este tipo de revisión no nos basamos únicamente en la identidad de un usuario o una entidad a la hora de determinar a qué contenido aplicamos la revisión basada en la comprobación cruzada. El clasificador de comprobación cruzada clasifica el contenido en función del riesgo de falso positivo a partir de criterios como lo delicado del tema (lo actual o delicado que es el tema en cuestión), la severidad de las medidas (lo rigurosas que serían las acciones que se tomarían para hacer cumplir las normas), la probabilidad de que se diera un falso positivo, el alcance previsto y el nivel de confidencialidad de la entidad (en función sobre todo de las listas creadas como se ha descrito anteriormente). Actualmente este clasificador ya se utiliza para la mayor parte de las revisiones basadas en la comprobación cruzada.
La SSR es parecida al sistema de comprobación cruzada que usÔbamos antes. Para determinar a qué contenido o entidades se aplica la SSR, seguimos manteniendo las listas de usuarios y entidades para los que se llevan a cabo revisiones adicionales basadas en la comprobación cruzada en caso de que se marquen como contenido que potencialmente infringe nuestras Normas comunitarias. Sin embargo, hemos añadido controles al proceso de creación y revisión de dichas listas. Antes de septiembre de 2020, la mayoría de los empleados podían añadir a un usuario o una entidad a la lista de comprobación cruzada. Desde entonces, aunque cualquier empleado puede solicitar que se añada a un usuario o una entidad a las listas de comprobación cruzada, solo un grupo de empleados designados cuentan con la autorización necesaria para añadir usuarios o entidades a la lista.
Actualmente, las responsabilidades de gobernanza de la lista de SSR recaen en la organización de operaciones globales, con la ayuda de nuestros equipos jurídicos y asociados, que aportan su experiencia y sus conocimientos especializados. Aunque la estructura de informe del equipo de operaciones globales es independiente del equipo de políticas públicas de Meta, se consulta a este último sobre decisiones basadas en la comprobación cruzada, ya que conciernen a muchos Ômbitos de moderación de contenido de la empresa. En estos casos, el equipo de operaciones puede recurrir a la experiencia del equipo de políticas públicas de Meta, conjuntamente con nuestros expertos regionales y revisores especializados independientes del lenguaje, para potenciar las perspectivas culturales y locales. Las distintas estructuras de informe contribuyen a garantizar la independencia de la revisión respecto a cualquier influencia política o económica. Asimismo, para mantener listas que sean pertinentes y apropiadas, hemos desarrollado un proceso de revisión anual diligente para la auditoría de entidades que figuran en listas de SSR. Dicho proceso tiene la finalidad de garantizar su cumplimiento constante de los requisitos, y seguiremos mejorÔndolo con el tiempo.
En los últimos meses, Meta ha llevado a cabo, de media, varios miles de revisiones diarias basadas en la comprobación cruzada, la mayor parte de las cuales se han realizado mediante GSR. Estas cifras representan una proporción pequeña si tenemos en cuenta los millones de elementos de contenido que se marcan a diario por incumplir nuestras Normas comunitarias y a los que se aplican las medidas correspondientes. En este momento, las SSR constituyen una minoría dentro de estas revisiones diarias. Prevemos que tenga lugar un cambio continuo en el número de tareas de revisión basadas en la comprobación cruzada como resultado de la priorización de las GSR durante finales de 2021 y tras la entrada en 2022.
Si un elemento de contenido procede de un individuo o una entidad incluidos en la lista de SSR, lo normal es que el equipo de regiones lo revise primero. Tras esta primera revisión, el equipo de escalado llevarÔ a cabo otra para confirmar si el contenido realmente incumple las normas. En general, si el equipo de regiones determina que el contenido no infringe nuestras políticas, el equipo de escalado no llevarÔ a cabo otra revisión. Si un elemento de contenido procede de un individuo o una entidad a los que el clasificador de comprobación cruzada ha dado prioridad, lo normal es que contratistas o el equipo de regiones se encarguen de revisarlo, salvo que el equipo de escalado cuente con capacidad adicional para hacerlo. Como sucedía con el sistema de comprobación cruzada que se usaba antes, es posible que los problemas especialmente complejos requieran llevar a cabo mÔs revisiones, incluida, en casos poco frecuentes, una revisión por parte de los directivos. Si en la última revisión se determina que el contenido incumple nuestras Normas comunitarias, lo eliminaremos. En cambio, si se llega a la conclusión de que no las incumple, lo mantendremos publicado.
Desde el 16 de octubre de 2021, a aproximadamente 660 000 usuarios y entidades se les han aplicado medidas que requieren alguna forma de SSR en función de su inclusión en las listas que hemos descrito mÔs arriba. Este número varía frecuentemente a medida que añadimos usuarios y entidades a esas listas o los suprimimos de ellas según los criterios que seguimos para su inclusión, que no dejan de evolucionar. Estos son algunos ejemplos de usuarios y entidades que cumplen los requisitos para su inclusión en la lista de SSR:
  • Entidades relacionadas con eventos de alto riesgo o el escalado de respuestas. Actualmente contamos con un proceso informal que los equipos que se preparan para un evento de alto riesgo pueden seguir para identificar entidades que tengan muchas probabilidades de que se les apliquen medidas excesivas para hacer cumplir las normas. Por ejemplo, si un usuario publica contenido controvertido y este se vuelve viral (como un vĆ­deo en directo en el que se muestra violencia policial), podemos identificar a ese usuario para una SSR con el objetivo de evitar que el contenido se elimine erróneamente.
  • Entidades incluidas para cumplir fines legales. En determinados casos, recurrimos a la SSR para cumplir con obligaciones legales o normativas.
  • Personajes pĆŗblicos y editores con mucha visibilidad. Identificamos este tipo de entidades para su inclusión en la lista de SSR porque la aplicación excesiva de medidas puede traducirse en una experiencia negativa para un amplio sector de los usuarios.
  • Poblaciones marginadas. Identificamos a defensores de los derechos humanos, disidentes polĆ­ticos y otras personas que consideramos que pueden ser objeto de acoso, ataques en grupo o denuncias masivas respaldados por estados u otras entidades antagonistas, con el fin de protegerlos ante este tipo de ataques.
  • Entidades cĆ­vicas. Nos guiamos por criterios objetivos y los conocimientos de nuestros equipos especializados en polĆ­ticas de distintas regiones para identificar polĆ­ticos, funcionarios del Gobierno, instituciones, organizaciones, grupos de defensa e influencers del sector social. Incluimos estas entidades para la SSR con el fin de evitar errores que limitarĆ­an el discurso polĆ­tico que no infringe las normas y para no tener un impacto involuntario en las conversaciones sobre temas cĆ­vicos como las elecciones, las polĆ­ticas pĆŗblicas y los temas sociales. Queremos garantizar la paridad entre las distintas entidades cĆ­vicas de un mismo paĆ­s. Por ejemplo, si incluimos un ministerio en la lista de SSR, incluirĆ­amos tambiĆ©n todos los demĆ”s ministerios del Gobierno de ese paĆ­s.
  • Empresas. Determinamos quiĆ©nes son anunciantes de gran valor o que han experimentado una sobreaplicación de las polĆ­ticas con el objetivo de proteger los ingresos y de generar una confianza duradera en nuestra plataforma.
En estos momentos estamos evaluando cómo mejorar los criterios que seguimos para identificar entidades que deberían someterse a una SSR. Por ejemplo, estamos explorando cómo mejorar nuestros criterios en aspectos como el número de seguidores, el número de medidas aplicadas anteriormente a causa de falsos positivos, los requisitos legales o normativos, y problemas importantes sociales o políticos. Los usuarios pueden solicitar que no se los incluya en la lista de SSR mediante este formulario. Meta no confirma si los usuarios forman parte de estas listas o se los ha suprimido de ellas. Sin embargo, creemos firmemente en la autonomía de los usuarios y revisaremos cada solicitud lo antes posible.
AdemÔs de los dos componentes del sistema de comprobación cruzada, también disponemos de un sistema interno de prevención de errores conocido como revisión dinÔmica múltiple (DMR, por sus siglas en inglés). Se trata de un sistema que nos permite someter casos revisados a una nueva revisión para obtener un voto mayoritario sobre cada decisión (por ejemplo, si la mayoría de los revisores estÔ de acuerdo sobre una decisión, se cierra el caso), de modo que podamos tener mayor confianza en la pertinencia de la decisión. Usamos este sistema para mejorar la calidad y exactitud de la revisión por parte del equipo humano y mitigar el riesgo de tomar decisiones incorrectas. Para ello, ajustamos la cantidad de revisiones necesarias para tomar una decisión definitiva en función de distintos factores, tales como la viralidad, el número de visualizaciones y la posibilidad de contribuir a un daño (por ejemplo, posibles infracciones de nuestras políticas sobre explotación sexual o personas y organizaciones peligrosas).
Futuras intervenciones en aras de la transparencia en la comprobación cruzada
En respuesta a la decisión de diciembre de 2022 del Consejo asesor de contenido relativa a la remisión de opiniones consultivas sobre políticas, también nos hemos comprometido a realizar una serie de intervenciones para garantizar la transparencia de la prevención de errores. Estas intervenciones incluyen:
  • Una interacción estructurada y robusta con nuestros equipos internos de derechos humanos y civiles, nuestros socios de confianza y otras organizaciones externas de la sociedad civil, con el objeto de analizar formas de fundamentar los criterios que usamos en la identificación de entidades de interĆ©s pĆŗblico para las listas de comprobación cruzada.
  • La exploración de un proceso de propuesta de listas de comprobación mĆ”s formal por parte de grupos de la sociedad civil a escala local, regional y mundial.
  • La inversión en recursos de calidad a cargo de la revisión y la formación, a medida que asignamos revisores que conozcan los idiomas y cuenten con experiencia regional a todas las decisiones basadas en la comprobación cruzada, en la medida de lo posible.
  • La implementación de acuerdos robustos para establecer el nivel de servicio (SLA, por sus siglas en inglĆ©s) relativos a decisiones de revisión en todos los sistemas de prevención de errores, que nos permitan optimizar el modelo actual de asignación de revisores para garantizar la mayor rapidez posible en las revisiones en cada idioma.
Aunque hemos implementado mejoras importantes en el sistema de comprobación cruzada, todavía estamos investigando formas de garantizar un equilibrio adecuado entre nuestros objetivos de eliminar contenido que incumpla nuestras Normas comunitarias y la necesidad de minimizar los errores de aplicación de normas que tengan consecuencias graves.

Meta
PolĆ­ticas
Normas comunitariasNormas de publicidad de MetaOtras políticasCómo mejora MetaContenido apropiado según la edad

Funciones
Nuestra estrategia en cuanto a las personas y organizaciones peligrosasNuestra estrategia en cuanto a la epidemia de opiÔceosNuestra estrategia en cuanto a las eleccionesNuestro enfoque sobre la información erróneaNuestra estrategia en cuanto al contenido de interés periodísticoNuestro enfoque sobre la clasificación del feed de FacebookNuestro método para explicar el sistema de clasificaciónAccesibilidad en Meta

Herramientas de investigación
Biblioteca de contenido y API de la Biblioteca de contenidoHerramientas de la Biblioteca de anunciosOtras herramientas y conjuntos de datos para investigación

Aplicación de políticas
Detección de infraccionesAdopción de medidas

Gobernanza
Innovación en materia de gobernanzaInformación general sobre el Consejo asesor de contenidoCómo apelar ante el Consejo asesor de contenidoCasos del Consejo asesor de contenidoRecomendaciones del Consejo asesor de contenidoCreación del Consejo asesor de contenidoConsejo asesor de contenido: Preguntas frecuentesActualizaciones bianuales de Meta sobre el Consejo asesor de contenidoSeguimiento del impacto del Consejo asesor de contenido

Seguridad
Disrupciones por amenazasAmenazas de seguridadInformes sobre amenazas

Informes
Informe de aplicación de las Normas comunitariasPropiedad intelectualSolicitudes gubernamentales de datos de usuariosRestricciones de contenido en virtud de la legislación localDisrupciones de internetInforme sobre el contenido mÔs visualizadoInformes normativos y de transparencia

PolĆ­ticas
Normas comunitarias
Normas de publicidad de Meta
Otras polĆ­ticas
Cómo mejora Meta
Contenido apropiado segĆŗn la edad
Funciones
Nuestra estrategia en cuanto a las personas y organizaciones peligrosas
Nuestra estrategia en cuanto a la epidemia de opiƔceos
Nuestra estrategia en cuanto a las elecciones
Nuestro enfoque sobre la información errónea
Nuestra estrategia en cuanto al contenido de interƩs periodƭstico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro método para explicar el sistema de clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la Biblioteca de contenido
Herramientas de la Biblioteca de anuncios
Otras herramientas y conjuntos de datos para investigación
Aplicación de políticas
Detección de infracciones
Adopción de medidas
Gobernanza
Innovación en materia de gobernanza
Información general sobre el Consejo asesor de contenido
Cómo apelar ante el Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones bianuales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Disrupciones por amenazas
Amenazas de seguridad
Informes sobre amenazas
Informes
Informe de aplicación de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Disrupciones de internet
Informe sobre el contenido mƔs visualizado
Informes normativos y de transparencia
PolĆ­ticas
Normas comunitarias
Normas de publicidad de Meta
Otras polĆ­ticas
Cómo mejora Meta
Contenido apropiado segĆŗn la edad
Funciones
Nuestra estrategia en cuanto a las personas y organizaciones peligrosas
Nuestra estrategia en cuanto a la epidemia de opiƔceos
Nuestra estrategia en cuanto a las elecciones
Nuestro enfoque sobre la información errónea
Nuestra estrategia en cuanto al contenido de interƩs periodƭstico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro método para explicar el sistema de clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la Biblioteca de contenido
Herramientas de la Biblioteca de anuncios
Otras herramientas y conjuntos de datos para investigación
Seguridad
Disrupciones por amenazas
Amenazas de seguridad
Informes sobre amenazas
Informes
Informe de aplicación de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Disrupciones de internet
Informe sobre el contenido mƔs visualizado
Informes normativos y de transparencia
Aplicación de políticas
Detección de infracciones
Adopción de medidas
Gobernanza
Innovación en materia de gobernanza
Información general sobre el Consejo asesor de contenido
Cómo apelar ante el Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones bianuales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
PolĆ­ticas
Normas comunitarias
Normas de publicidad de Meta
Otras polĆ­ticas
Cómo mejora Meta
Contenido apropiado segĆŗn la edad
Funciones
Nuestra estrategia en cuanto a las personas y organizaciones peligrosas
Nuestra estrategia en cuanto a la epidemia de opiƔceos
Nuestra estrategia en cuanto a las elecciones
Nuestro enfoque sobre la información errónea
Nuestra estrategia en cuanto al contenido de interƩs periodƭstico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro método para explicar el sistema de clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la Biblioteca de contenido
Herramientas de la Biblioteca de anuncios
Otras herramientas y conjuntos de datos para investigación
Aplicación de políticas
Detección de infracciones
Adopción de medidas
Gobernanza
Innovación en materia de gobernanza
Información general sobre el Consejo asesor de contenido
Cómo apelar ante el Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones bianuales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Disrupciones por amenazas
Amenazas de seguridad
Informes sobre amenazas
Informes
Informe de aplicación de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Disrupciones de internet
Informe sobre el contenido mƔs visualizado
Informes normativos y de transparencia
EspaƱol (EspaƱa)
PolĆ­tica de PrivacidadCondiciones del servicioCookies
Meta
Centro de transparencia
PolĆ­ticas
Aplicación de políticas
Seguridad
Funciones
Gobernanza
Herramientas de investigación
Informes
EspaƱol (EspaƱa)