Meta

Meta
Políticas
Normas comunitariasNormas de publicidad de MetaOtras políticasCómo mejora MetaContenido apropiado para la edad

Funciones
Nuestro enfoque sobre personas y organizaciones peligrosasNuestro enfoque sobre la epidemia de opioidesNuestro enfoque sobre las eleccionesNuestro enfoque sobre la información erróneaNuestro enfoque sobre el contenido de interés periodísticoNuestro enfoque sobre la clasificación del feed de FacebookNuestro enfoque para explicar la clasificaciónAccesibilidad en Meta

Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenidoHerramientas de la biblioteca de anunciosOtras herramientas y conjuntos de datos de investigación

Aplicación de políticas
Detección de infraccionesMedidas que tomamos

Gobernanza
Innovación en materia de gobernanzaDescripción general del Consejo asesor de contenidoCómo apelar al Consejo asesor de contenidoCasos del Consejo asesor de contenidoRecomendaciones del Consejo asesor de contenidoCreación del Consejo asesor de contenidoConsejo asesor de contenido: Preguntas frecuentesActualizaciones semestrales de Meta sobre el Consejo asesor de contenidoSeguimiento del impacto del Consejo asesor de contenido

Seguridad
Interrupciones por amenazasAmenazas de seguridadInforme de amenazas

Informes
Informe de cumplimiento de las Normas comunitariasPropiedad intelectualSolicitudes gubernamentales de datos de usuariosRestricciones de contenido en virtud de la legislación localInterrupciones de internetInforme de contenido con muchas visualizacionesInformes regulatorios y otros informes de transparencia

Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Español
Política de privacidadCondiciones del servicioCookies
Inicio
Políticas
Mejoras
Ajustes de correcciones

Correcciones y ajustes

ÚLTIMA ACTUALIZACIÓN 2 OCT. 2024
Detallamos cualquier ajuste específico identificado a través de nuestras prácticas de calidad de la información. Actualizaremos dicha información de acuerdo con nuestros procesos de medición.

Agosto de 2024: se resolvió el error en la medición de la prevalencia de cuentas falsas en Facebook
Detectamos un error en la consulta usada para calcular la prevalencia de cuentas falsas en Facebook en el primer trimestre de 2024 y lo solucionamos. Como resultado, sobrestimamos ligeramente la prevalencia en el primer trimestre de 2024.

Mayo de 2024: se resolvió el error en la metodología de muestras para la prevalencia en Facebook e Instagram
La prevalencia de contenido infractor se estima a través de muestras de visualizaciones de contenido en Facebook o Instagram. En este caso, se habían tomado muestras de una pequeña cantidad de datos irrelevantes. Este error se solucionó y no generó ningún cambio importante en la prevalencia.

Noviembre de 2023: se actualizaron los cálculos del porcentaje de proactividad en Facebook e Instagram, y el phishing ya no forma parte del spam
El porcentaje de proactividad de varios tipos de infracciones aumentó debido a la modificación de nuestra metodología. Antes de este cambio, cuando un usuario reportaba una publicación, nosotros también considerábamos que el usuario reportaba los comentarios que aparecían en ella. A partir del tercer trimestre de 2023, cambiamos la metodología y empezamos a considerar que se reportaban los comentarios en el caso en que los usuarios los reportaran directamente.
Además, las métricas de phishing dejarán de contabilizarse como parte de spam en los Informes de cumplimiento de las Normas comunitarias a partir del tercer trimestre de 2023 para alinearse con un cambio previo de la política de Meta.

Agosto de 2023: se actualizó la metodología para las cuentas falsas en Facebook e Instagram
Conforme a la Ley de Servicios Digitales de la Unión Europea, los usuarios deben poder realizar apelaciones durante un período de seis meses desde que se toman medidas, lo que aumenta el plazo de apelación. Esto significa que, para representar la experiencia del usuario significativamente en las métricas de cuentas falsas, actualizamos la contabilización de cuentas falsas para alinearnos con este nuevo plazo. El aumento que observamos entre el primer trimestre y el segundo trimestre en las eliminaciones de cuentas falsas se debe a este cambio de contabilización.

Febrero de 2023: se actualizó la metodología para el porcentaje de proactividad en Facebook e Instagram
Como parte de nuestro trabajo para ajustar y mejorar constantemente las métricas que compartimos en este informe, actualizamos la metodología para el porcentaje de proactividad a partir del cuarto trimestre de 2022 con el fin de contabilizar las medidas tomadas como "proactivas" solo si detectábamos contenido infractor y tomábamos medidas al respecto antes de que los usuarios lo reportaran. La metodología antigua contabilizaba las medidas tomadas como "proactivas" si sucedía primero la detección proactiva en los casos en que ambas causas de detección estaban presentes (es decir, contenido que los usuarios detectaban y reportaban proactivamente). La nueva metodología tiene en cuenta la existencia de reportes de usuarios y ahora los contabiliza como "reactivos", en lugar de "proactivos". Si bien este cambio no altera significativamente las métricas, contribuyó a que se produjeran diferencias menores de un trimestre a otro en la métrica del porcentaje de proactividad. En la tabla que aparece en este documento, se muestra una comparación de las métricas medidas tanto con la antigua metodología como con la nueva para los períodos de informes del tercer y cuarto trimestre de 2022.

Agosto de 2022: se actualizó la metodología para el contenido apelado en Facebook e Instagram
A partir del primer trimestre de 2020, debido a una reducción temporal de nuestra capacidad de revisión como resultado del COVID-19, no siempre podíamos ofrecer a las personas la opción de apelar, pero sí les ofrecíamos la opción de informarnos si no estaban de acuerdo con nuestras decisiones. Como se pudo observar en los datos que proporcionamos entre el primer trimestre de 2020 y el primer trimestre de 2022, no contabilizamos estas instancias en la definición de la métrica de apelaciones porque brindaban comentarios de usuarios valiosos, pero no calificaban como apelaciones sin la oportunidad de pasar por una revisión. Durante el año pasado, mejoramos y desarrollamos estas experiencias de apelación. Y, como las operaciones se estabilizaron, ahora revisamos muchas de estas instancias.
Como parte de nuestro trabajo para ajustar y mejorar constantemente las métricas que compartimos en este informe, actualizamos la metodología para las apelaciones a partir del segundo trimestre de 2022 para contabilizar todas las instancias donde el contenido había sido enviado para una revisión adicional, incluidas aquellas instancias en las que las personas nos informaban que no estaban de acuerdo con nuestras decisiones. Aún excluimos instancias en las que el contenido no se envía para una revisión adicional, incluso si las personas nos informaron que no estaban de acuerdo con nuestras decisiones, como en muchos casos de spam.

Febrero de 2022: contenido sobre el que se tomaron medidas, contenido apelado, porcentaje de proactividad y contenido restaurado por terrorismo en Facebook e Instagram
En el cuarto trimestre, identificamos y volvimos a clasificar las medidas que habíamos tomado sobre contenido terrorista en Facebook e Instagram. Esto afectó las cifras que habíamos compartido anteriormente con respecto al contenido sobre el que se tomaron medidas, el porcentaje de proactividad, el contenido apelado y el contenido restaurado durante el tercer trimestre de 2021, por lo que las ajustamos de manera acorde.

Noviembre de 2021: contenido sobre el que se tomaron medidas por relacionarse con suicidio y autolesiones en Instagram y contenido restaurado en relación con desnudos y explotación sexual de menores en Facebook
En el segundo trimestre de 2020, descubrimos que parte del contenido sobre el que tomamos medidas por infringir la política de contenido violento y gráfico infringía la política específica de suicidio y autolesiones. Volvimos a clasificar este contenido de manera acorde, lo que afectó las cifras antes compartidas del contenido sobre el que tomamos medidas en Instagram durante el segundo trimestre de 2020. Además, ajustamos levemente las cifras del contenido restaurado por desnudos y explotación sexual de menores en Instagram durante el tercer trimestre de 2020 debido a elementos que se habían clasificado erróneamente. Continuaremos actualizando las cifras históricas a medida que actualicemos las políticas y mejoremos los sistemas y la contabilización.

Agosto de 2021: contenido sobre el que se tomaron medidas por spam, suicidio y autolesiones; porcentaje de proactividad por bullying y acoso y suicidio y autolesiones; contenido restaurado relativo a desnudos y actividad sexual de adultos
Este trimestre mejoramos las métricas de spam y suicidio y autolesiones, lo que generó cambios menores en las cifras informadas anteriormente. También ajustamos la metodología, lo que generó cambios menores en los porcentajes de proactividad por bullying y acoso, y suicidio y autolesiones. Por último, volvimos a clasificar parte del contenido sobre el que se tomaron medidas por spam por relacionarse con desnudos y actividad sexual de adultos, lo que afectó las métricas del contenido restaurado.

Mayo de 2021: contenido sobre el que se tomaron medidas por suicidio y autolesiones en Facebook
En 2020, descubrimos que parte del contenido sobre el que tomamos medidas por infringir la política de contenido violento y gráfico no cumplía con la política de suicidio y autolesiones. Volvimos a clasificar este contenido de manera acorde, lo que afectó las cifras antes compartidas del contenido sobre el que tomamos medidas en Facebook en 2020.

Febrero de 2021: contenido restaurado de desnudos y actividad sexual de adultos en Facebook; prevalencia y contenido sobre el que se tomaron medidas por ser violento y gráfico en Facebook; contenido sobre el que se tomaron medidas por suicidio y autolesiones en Facebook y contenido restaurado por Instagram
En el cuarto trimestre, presentamos aclaraciones sobre ciertas clases de imágenes de la política de desnudos y actividad sexual de adultos en Facebook. Restauramos cierto contenido sobre el que tomamos medidas con anterioridad según la última política, lo que afectó las cifras compartidas anteriormente sobre el contenido restaurado en Facebook durante el tercer trimestre.
Con respecto al contenido violento y gráfico en Facebook, la prevalencia indicada anteriormente en el Informe de cumplimiento de las Normas comunitarias de noviembre de 2020 fue entre el 0,05% y el 0,06% de las visualizaciones. En el informe de febrero de 2021, la prevalencia del contenido violento y gráfico se actualizó a aproximadamente el 0,07% de las visualizaciones en el tercer trimestre.
En el segundo trimestre, descubrimos que parte del contenido sobre el que tomamos medidas por infringir la política de contenido violento y gráfico no cumplía con la política específica de suicidio y autolesiones, después de recuperar cierta capacidad de revisión manual a principios de septiembre. Volvimos a clasificar este contenido de manera acorde, lo que afectó las cifras antes compartidas del contenido sobre el que tomamos medidas en Facebook durante el tercer trimestre.
Además, ajustamos las cifras del contenido restaurado del primer y segundo trimestre en Instagram para contabilizar los comentarios que restauramos y que no se reportaron anteriormente. Esto produjo cambios mínimos en la mayoría de los ámbitos normativos en Instagram, y ajustamos los datos compartidos previamente de manera acorde. Continuaremos actualizando las cifras históricas a medida que actualicemos las políticas y mejoremos los sistemas y la contabilización.

Noviembre de 2020: actualizamos ajustes de contenido sobre el que se tomaron medidas, porcentaje de proactividad, contenido apelado por los usuarios y contenido restaurado en Facebook e Instagram
En el tercer trimestre, realizamos una actualización por la cual volvimos a clasificar el contenido cruel e insensible sobre el que se tomaron medidas con anterioridad para que ya no se considere como lenguaje que incita al odio. Esta actualización afectó las cifras que compartimos anteriormente con respecto al contenido sobre el que se tomaron medidas, el porcentaje de proactividad, el contenido apelado y el contenido restaurado durante el cuarto trimestre de 2019, el primer trimestre de 2020 y el segundo trimestre de 2020, por lo que las ajustamos de manera acorde. También actualizamos nuestra política para eliminar más tipos de contenido gráfico de suicidio y autolesiones, y volvimos a clasificar cierto contenido violento y gráfico que anteriormente marcamos como perturbador en el segundo trimestre.
Además, ajustamos las cifras del contenido restaurado del primer y segundo trimestre en Instagram para contabilizar los comentarios que restauramos y que no se reportaron anteriormente, así como un problema con el origen de datos para el informe de agosto de 2020. Esto produjo cambios mínimos en la mayoría de los ámbitos normativos en Facebook e Instagram, y ajustaremos los datos compartidos previamente de manera acorde. Continuaremos actualizando las cifras históricas a medida que actualicemos las políticas y mejoremos los sistemas y la contabilización.

Agosto de 2020: contenido sobre el que se tomaron medidas por ser violento y gráfico en Instagram
En el primer trimestre de 2020, identificamos y corregimos un problema con la contabilización de las medidas tomadas a través de la tecnología de detección proactiva de contenido violento y gráfico en Instagram, y pudimos actualizar todos nuestros sistemas de informe durante el segundo trimestre. Con respecto al contenido violento y gráfico en Instagram, el contenido sobre el que se tomaron medidas en el primer trimestre de 2020 se incluyó anteriormente en el informe de mayo de 2020 como 2,3 millones de contenidos, y se actualizó a 2,8 millones en el informe de agosto de 2020.

Mayo de 2020: se actualizaron los ajustes de contenido sobre el que se tomaron medidas, contenido proactivo sobre el que se tomaron medidas, contenido apelado por los usuarios y contenido restaurado en Facebook e Instagram
Al momento de la última actualización en noviembre de 2019, realizamos una serie de mejoras en los sistemas y la contabilización. Dichas mejoras nos permitieron calcular los impactos más grandes mientras seguíamos ajustando las métricas en aquel momento. Después del informe de noviembre de 2019, profundizamos aún más estas mejoras.
Debido a este trabajo, en la quinta edición del Informe de cumplimiento de las Normas comunitarias de mayo de 2020, ajustamos los datos compartidos anteriormente. La mayoría de las categorías de 2019 solo se ven mínimamente afectadas, y cualquier ajuste en los datos equivale a un cambio que no supera el 3% del contenido sobre el que se tomaron medidas. Continuaremos actualizando las cifras históricas a medida que volvamos a clasificar el contenido eliminado con anterioridad por diversas infracciones en función de protocolos existentes y cambiantes, y seguiremos mejorando los sistemas y la contabilización.

Noviembre de 2019: contenido sobre el que se tomaron medidas; porcentaje de proactividad por spam en Facebook
En Meta, existen diferentes sistemas que toman medidas sobre diversos tipos de contenido para mejorar la eficiencia y confiabilidad de los miles de millones de medidas que se toman cada trimestre. Uno de estos sistemas, que toma medidas principalmente sobre el contenido con enlaces, no registró nuestras medidas sobre cierto contenido que se eliminó si nadie intentó verlo dentro de los siete días posteriores a su creación, incluso si dicho contenido se eliminó de la plataforma.
Si bien sabemos que esto supone una infravaloración de la cifra real del contenido con enlaces externos, lo que afecta principalmente las métricas de spam sobre el contenido con enlaces maliciosos, no podemos calcular de manera retrospectiva el conteo inferior en estos momentos. Por lo tanto, las cifras que se reflejan actualmente en el Informe de cumplimiento de las Normas comunitarias representan una estimación mínima tanto del contenido sobre el que se tomaron medidas como del porcentaje de proactividad para el período afectado. Las actualizaciones sobre este asunto se publicarán aquí cuando estén disponibles.

Noviembre de 2019: contenido sobre el que se tomaron medidas; contenido proactivo sobre el que se tomaron medidas; contenido apelado por los usuarios y contenido restaurado en Facebook
Cuando compartimos la segunda edición del Informe de cumplimiento de las Normas comunitarias en noviembre de 2018, actualizamos nuestro método para explicar de qué manera tomamos medidas sobre el contenido. Lo hicimos para que las métricas reflejaran mejor lo que sucede en Facebook cuando tomamos medidas sobre contenido por infringir nuestras Normas comunitarias. Por ejemplo, si detectamos que una publicación incluye una foto que infringe las políticas, queremos que la métrica refleje que tomamos una medida con respecto a todo el contenido, y no dos medidas diferentes para eliminar la foto y la publicación.
Sin embargo, en julio de 2019, detectamos que los sistemas que registraban y contabilizaban estas medidas no procesaban correctamente las medidas tomadas. En gran parte, esto se debió a la necesidad de contabilizar varias medidas que se toman en unos pocos milisegundos y no perder, ni exagerar, ninguna de las medidas individuales tomadas. Como el sistema de registro para fines de medición es distinto de las operaciones para hacer aplicar las políticas, el problema con la contabilización no afectó la forma en que aplicamos las políticas o en que informamos a las personas sobre esas medidas; solo afectó la forma en que contabilizamos las medidas que tomamos. Apenas descubrimos el problema, trabajamos para solucionarlo, identificar cualquier métrica incorrecta compartida previamente y establecer un conjunto más sólido de controles de nuestros procesos para garantizar la precisión de la contabilización. En total, detectamos que este problema afectó las cifras que habíamos compartido anteriormente con respecto al contenido sobre el que se tomaron medidas, el porcentaje de proactividad, el contenido apelado y el contenido restaurado durante el tercer trimestre de 2018, el cuarto trimestre de 2018 y el primer trimestre de 2019.
La cuarta edición del Informe de cumplimiento de las Normas comunitarias incluye las métricas correctas para los trimestres afectados y la tabla vinculada anteriormente proporciona las métricas informadas con anterioridad y sus correcciones.
Meta
Centro de transparencia
Políticas
Aplicación de políticas
Seguridad
Funciones
Gobernanza
Herramientas de investigación
Informes
Español