Meta
Inicio
Políticas
Mejoras
Métrica de prevalencia

Prevalencia

ÚLTIMA ACTUALIZACIÓN 6 MAR. 2025
Nuestro objetivo es minimizar el impacto que causan las infracciones de nuestras políticas en las personas que usan nuestros servicios. Medimos la prevalencia del contenido infractor para evaluar nuestro desempeño frente a ese objetivo.

Qué es la prevalencia
La prevalencia tiene en cuenta todas las visualizaciones del contenido en Facebook o Instagram y mide el porcentaje estimado de visualizaciones de contenido infractor. Obtén más información sobre la definición de visualizaciones en "Por qué medimos la prevalencia de las visualizaciones". Esta métrica sugiere que el impacto del contenido infractor es proporcional a la cantidad de veces que se visualizó.
Esta métrica también se puede considerar como la cantidad de visualizaciones de contenido infractor que no impedimos, ya sea porque no detectamos las infracciones con la anticipación suficiente o porque las pasamos por alto.

Cómo medimos la prevalencia
La prevalencia de contenido infractor se estima a través de muestras de visualizaciones de contenido en Facebook o Instagram. Se calcula de la siguiente manera: el número estimado de visualizaciones que mostraron contenido infractor dividido por el número total estimado de visualizaciones de contenido en Facebook o Instagram. Si la prevalencia de desnudos y actividad sexual de adultos fue del 0,18% al 0,20%, esto significa que, de cada 10.000 visualizaciones de contenido, un promedio de 18 a 20 correspondieron a contenido que infringió nuestras normas relacionadas con desnudos y actividad sexual de adultos.
1 PUNTO = 10 VISUALIZACIONES
10.000 VISUALIZACIONES EN TOTAL
20 VISUALIZACIONES DE CONTENIDO INFRACTOR
Prevalence
Si la prevalencia fue del 0,20%, esto significa que, de cada 10.000 visualizaciones, 20 correspondieron a contenido infractor. Si bien las cifras pueden ser muy bajas, incluso el número más pequeño puede tener un gran impacto en las personas.
Algunos tipos de infracciones ocurren con muy poca frecuencia en nuestros servicios. La probabilidad de que las personas vean contenido infractor es muy baja, y eliminamos gran parte de este contenido antes de que puedan verlo. Como resultado, muchas veces no encontramos muestras suficientes de contenido infractor para realizar una estimación precisa de la prevalencia. En estos casos, podemos calcular el límite máximo de la frecuencia con la que alguien vería contenido que infringe estas políticas. Por ejemplo, si el límite máximo de propaganda terrorista fue de 0,04%, esto significa que estimamos que, de cada 10.000 visualizaciones en Facebook o Instagram durante ese período de tiempo, como máximo 4 incluían contenido que infringía nuestra política sobre propaganda terrorista.
Es importante destacar que, si la prevalencia es tan baja que solo podemos proporcionar límites máximos, este límite puede cambiar en unas cuantas centésimas de un punto porcentual entre los períodos de informes. Sin embargo, estos cambios tan pequeños no son estadísticamente significativos y no indican que haya una diferencia real en la prevalencia de este contenido infractor en el servicio.

Por qué medimos la prevalencia de las visualizaciones
En lugar de calcular la cantidad de contenido publicado, calculamos con qué frecuencia se visualiza dicho contenido porque lo que queremos es determinar en qué proporción este afectó a las personas en Facebook o Instagram. El contenido infractor podría publicarse una vez, pero las personas podrían verlo mil veces o un millón de veces, o no verlo en absoluto. Medir las visualizaciones de contenido infractor en lugar de la cantidad de contenido infractor publicado refleja mejor el impacto en la comunidad. Aunque la cifra de prevalencia sea baja, es posible que el impacto sea significativo debido al número elevado de visualizaciones totales de contenido en nuestros servicios.
Registramos una visualización de contenido cada vez que cierto contenido aparece en la pantalla de un usuario. Específicamente, se contabiliza una visualización cuando una persona:
  • Ve una publicación (aunque haya varios contenidos en esa publicación, la visualización se asigna a la publicación).
  • Hace clic para ampliar una foto o reproducir un video (la visualización se asigna a la foto o al video).

Cómo realizamos un muestreo para estimar la prevalencia
Para estimar la prevalencia, realizamos un muestreo de las visualizaciones de contenido en Facebook o Instagram.
Para ello, tomamos muestras de visualizaciones y del contenido incluido en ellas y las revisamos de forma manual. Luego, clasificamos las muestras según si corresponden a contenido infractor o no de acuerdo con nuestras políticas. Los equipos encargados de estos muestreos revisan toda la publicación para comprobar si hay infracciones, incluso si la visualización incluida en el muestreo no expuso todo el contenido de la publicación.
Utilizamos la porción de estas muestras correspondiente a contenido infractor para calcular el porcentaje de todas las visualizaciones de este tipo de contenido. Cabe destacar que no tomamos muestras de cada parte de Facebook o Instagram para cada tipo de infracción.
Para ciertos tipos de infracción, utilizamos un muestreo estratificado, que aumenta la frecuencia de muestreo si el contexto indica que la visualización de contenido tiene más probabilidades de incluir una infracción. Por ejemplo, si las infracciones se vieran con más frecuencia en los grupos que en el feed, la frecuencia de muestreo de visualizaciones en los grupos sería más alta que en el feed. Uno de los motivos que nos llevan a hacerlo de este modo es la incertidumbre que se genera al realizar un muestreo. Para expresar esta incertidumbre, citamos un rango de valores, por ejemplo, decimos "de 18 a 20 de cada 10.000 visualizaciones infringen las normas relacionadas con desnudos y actividad sexual de adultos". Este rango refleja un intervalo de confianza del 95%. Esto significa que, si realizamos esta medición 100 veces utilizando una muestra diferente en cada ocasión, se espera que la cifra real esté en el rango 95 del total de 100 veces.
Para realizar una estimación precisa de la prevalencia de los tipos de infracción que se visualizan con poca frecuencia, se necesita una gran cantidad de muestras de contenido. En estos casos, solo podemos calcular el límite superior, lo que significa que tenemos la certeza de que la prevalencia de las visualizaciones de contenido infractor no superará ese límite, pero no podemos afirmar por cuánto. Nuestro intervalo de confianza para estos límites superiores también es del 95%.

Advertencias
  • Las personas que clasifican nuestras muestras a veces cometen errores. Por ejemplo, es posible que clasifiquen como infracción cierto contenido que no lo es, o viceversa. La frecuencia relativa de estos errores podría afectar la medición de prevalencia. Por este motivo, podemos contar con dos personas para revisar una muestra a fin de garantizar que nuestro proceso de etiquetado sea preciso. Si llega a haber desacuerdo, solicitamos que una tercera persona defina la situación.
  • Para ciertos ámbitos, como contenido violento y gráfico, en los que el contenido se puede marcar como perturbador, nuestro cálculo de prevalencia representa las visualizaciones de ese contenido antes de que lo hayamos cubierto.
  • La medición actual de prevalencia abarca sitios que contribuyen a más del 90% de todas las visualizaciones en Facebook e Instagram y no incluye conversaciones privadas en Messenger o Instagram Direct.
  • Para generar una medición representativa de la prevalencia mundial, tomamos muestras y clasificamos contenido en los distintos idiomas para Facebook e Instagram. Confiamos en que este enfoque ofrece un estimado mundial representativo y trabajamos continuamente para expandir la cobertura de esta métrica.
  • Nuestro sistema general de cumplimiento de normas de contenido, basado en revisores y tecnología, se expande a muchos más idiomas.

Prevalencia de cuentas falsas en Facebook
Para la prevalencia de cuentas falsas en Facebook, calculamos el porcentaje de cuentas de Facebook activas por mes que eran falsas. A diferencia de la prevalencia de contenido infractor, la prevalencia de cuentas falsas supone que el impacto en los usuarios de Facebook es proporcional al número de cuentas falsas activas en la plataforma, incluso aunque las personas no lleguen nunca a ver estas cuentas ni a interactuar con ellas.
Para estimar la prevalencia de cuentas falsas, tomamos una muestra de los usuarios activos por mes y los clasificamos como falsos o no. Definimos a los usuarios activos por mes (MAU) como aquellas personas registradas en Facebook que iniciaron sesión en la plataforma y accedieron a ella por medio de nuestro sitio web o de un dispositivo móvil, o bien que usaron la app de Messenger (y también están registradas como usuarios en Facebook) en los últimos 30 días a partir de la fecha de la medición.
Obtén más información sobre cómo Meta mide las cuentas falsas
Lee el Informe de cumplimiento de las Normas comunitarias más reciente

Meta
Políticas
Normas comunitariasNormas de publicidad de MetaOtras políticasCómo mejora MetaContenido apropiado para la edad

Funciones
Nuestro enfoque sobre personas y organizaciones peligrosasNuestro enfoque sobre la epidemia de opioidesNuestro enfoque sobre las eleccionesNuestro enfoque sobre la información erróneaNuestro enfoque sobre el contenido de interés periodísticoNuestro enfoque sobre la clasificación del feed de FacebookNuestro enfoque para explicar la clasificaciónAccesibilidad en Meta

Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenidoHerramientas de la biblioteca de anunciosOtras herramientas y conjuntos de datos de investigación

Aplicación de políticas
Detección de infraccionesMedidas que tomamos

Gobernanza
Innovación en materia de gobernanzaDescripción general del Consejo asesor de contenidoCómo apelar al Consejo asesor de contenidoCasos del Consejo asesor de contenidoRecomendaciones del Consejo asesor de contenidoCreación del Consejo asesor de contenidoConsejo asesor de contenido: Preguntas frecuentesActualizaciones semestrales de Meta sobre el Consejo asesor de contenidoSeguimiento del impacto del Consejo asesor de contenido

Seguridad
Interrupciones por amenazasAmenazas de seguridadInforme de amenazas

Informes
Informe de cumplimiento de las Normas comunitariasPropiedad intelectualSolicitudes gubernamentales de datos de usuariosRestricciones de contenido en virtud de la legislación localInterrupciones de internetInforme de contenido con muchas visualizacionesInformes regulatorios y otros informes de transparencia

Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Español
Política de privacidadCondiciones del servicioCookies
Meta
Centro de transparencia
Políticas
Aplicación de políticas
Seguridad
Funciones
Gobernanza
Herramientas de investigación
Informes
Español