Contenido sobre el que se tomaron medidas
ÚLTIMA ACTUALIZACIÓN 6 NOV. 2024
Medimos la cantidad de contenido (como publicaciones, fotos, videos o comentarios) o cuentas sobre los que tomamos medidas porque infringieron nuestras normas. Esta métrica muestra la escala de nuestras actividades relacionadas con el cumplimiento de las normas. Las medidas pueden incluir eliminar cierto contenido de Facebook o Instagram, cubrir con una advertencia fotos o videos que pueden resultar perturbadores para algunos públicos o inhabilitar cuentas. Si remitimos contenido a las fuerzas del orden, no lo consideramos nuevamente en nuestros cálculos.
PodrÃa resultar tentador leer la métrica de contenido sobre el que tomamos medidas como un indicador de la detección efectiva de infracciones o del impacto que estas tienen en nuestra comunidad. No obstante, el volumen de contenido sobre el que tomamos medidas es solo una cara de la moneda. No refleja el tiempo que se tardó en detectar una infracción ni cuántas veces la vieron los usuarios mientras estuvo en Facebook o Instagram.
Esta métrica puede aumentar o disminuir debido a factores externos que están fuera de nuestro control. Por ejemplo, supongamos que se produce un ciberataque en el que spammers comparten 10 millones de publicaciones con la misma URL maliciosa. Una vez detectada la URL, eliminamos los 10 millones de publicaciones. Esta métrica registrarÃa 10 millones de contenidos sobre los que se tomaron medidas, lo que representa un aumento considerable. Si bien la cifra no refleja necesariamente que mejoramos respecto de las medidas tomadas sobre el spam, sà refleja que una mayor cantidad de spammers decidieron ese mes atacar a Facebook con metodologÃas poco sofisticadas que resultaron fáciles de detectar. Tampoco indica qué cantidad de ese spam realmente afectó a los usuarios: las personas pueden haberlo visto en pocas ocasiones, o bien cientos o miles de veces. Esta información se registra en la prevalencia. Después del ciberataque, el contenido sobre el que se tomaron medidas puede disminuir de forma radical, incluso si nuestro sistema de detección mejora en un futuro.
El contenido puede ser una publicación, un video, una foto, un comentario, etc.
Cómo contabilizamos el contenido y las medidas
La manera en que contabilizamos el contenido puede ser compleja y evolucionó con el tiempo. En julio de 2018, actualizamos nuestra metodologÃa para aclarar sobre cuántos contenidos independientes tomamos medidas porque infringÃan nuestras polÃticas, y seguiremos mejorando nuestra metodologÃa como parte de nuestro compromiso por proporcionar métricas lo más precisas y significativas posible. En general, buscamos ofrecer una representación precisa del número total de contenidos sobre los que tomamos medidas porque infringieron nuestras polÃticas.
Existen algunas diferencias en la forma de contabilizar el contenido de Facebook e Instagram.
En Facebook, una publicación sin foto o video o con una sola foto o video se cuenta como un solo contenido. Esto significa que todas las siguientes publicaciones, si se eliminan, se contarÃan como un solo contenido sobre el que se tomaron medidas: una publicación con una foto que infringe las normas; una publicación con texto que infringe las normas; una publicación con texto y una foto, y uno de estos o ambos infringen las polÃticas.
Cuando una publicación de Facebook tiene varias fotos o videos, contamos a cada uno de ellos como un contenido. Por ejemplo, si eliminamos dos fotos que infringen las normas de una publicación de Facebook que tiene cuatro fotos, contarÃamos dos contenidos sobre los que se tomaron medidas (uno por cada foto eliminada). Si eliminamos toda la publicación, también la contamos. Entonces, por ejemplo, si eliminamos una publicación de Facebook con cuatro fotos, contarÃamos cinco contenidos sobre los que se tomaron medidas (uno por cada foto y uno por la publicación). Si solo eliminamos algunas de las fotos y los videos adjuntos en una publicación, solo contamos ese contenido.
En Instagram, si una publicación tiene contenido infractor, la eliminamos por completo y la contamos como un contenido sobre el que se tomaron medidas, independientemente de la cantidad de fotos o videos que tenga la publicación.
En ocasiones, un determinado contenido puede infringir varias normas. Para poder realizar la medición, atribuimos la acción solo a una infracción principal. Por lo general, se trata de la infracción de la norma más estricta. En otros casos, pedimos al revisor que tome una decisión sobre el principal motivo de la infracción.
Cómo clasificamos las infracciones
Cada vez que tomamos medidas sobre un determinado contenido, lo clasificamos según la polÃtica que infringió. Cuando los revisores observan los reportes, primero determinan si el material infringe o no nuestras polÃticas. Si deciden que esto es asÃ, lo clasifican con el tipo de infracción.
Antes no era necesario que los revisores clasificaran las infracciones al tomar decisiones. En lugar de ello, nos basábamos en la información que proporcionaban los usuarios cuando enviaban los reportes. En 2017, actualizamos nuestro proceso de revisión para registrar información más detallada respecto del motivo por el que los revisores eliminaron cierto contenido, ya que asà podrÃamos establecer métricas más precisas. También mejoramos nuestra tecnologÃa de detección para que clasifique las infracciones a medida que se identifican, marcan o eliminan con las mismas etiquetas que usan los revisores al tomar una decisión.
Para calcular el contenido sobre el que se tomaron medidas debido a una infracción estándar especÃfica, debemos clasificar la infracción cada vez que actuamos.
Cuentas falsas de Facebook sobre las que se tomaron medidas
En el caso de cuentas falsas, incluimos en los informes las "cuentas sobre las que se tomaron medidas", en lugar del "contenido sobre el que se tomaron medidas". La métrica de "cuentas sobre las que se tomaron medidas" representa el número de cuentas que inhabilitamos por ser falsas.
Advertencias
Tanto las cuentas como el contenido sobre los que se tomaron medidas no incluyen el contenido ni las cuentas que impedimos que se creen en un principio, como lo hacemos con los casos en que detectamos spammers que intentan publicar con mucha frecuencia o la creación de una cuenta falsa. Si los contabilizáramos, las cifras aumentarÃan de forma radical (probablemente, a millones por dÃa) en lo que respecta a cuentas falsas inhabilitadas y contenido de spam eliminado.
Cuando aplicamos polÃticas en URL, eliminamos todo el contenido actual o futuro que contenga esos enlaces. Medimos la cantidad de contenido sobre el que se tomaron medidas en función de si un usuario intenta mostrar este contenido en Facebook.
Cómo medimos las acciones que tomamos en cuentas, páginas, grupos y eventos
En las cuentas, páginas, grupos o eventos de Facebook de un usuario, puede haber grandes volúmenes de contenido. Uno de estos objetos, en conjunto, puede infringir nuestras polÃticas, según el contenido o los comportamientos que muestre. Generalmente, podemos determinar si una cuenta, página, grupo o evento infringe las normas sin necesidad de revisar todo el contenido que incluye. Si inhabilitamos una cuenta, página, grupo o evento, automáticamente se cancela el acceso a todo el contenido que incluye.
En las métricas incluidas en el Informe de cumplimiento de las Normas comunitarias, solo contabilizamos el contenido de las cuentas, páginas, grupos o eventos sobre el que tomamos medidas explÃcitas porque, en nuestras revisiones de estos objetos, determinamos que se trataba de contenido infractor. No contabilizamos el contenido que se elimina automáticamente si inhabilitamos la cuenta, página, grupo o evento donde se encontraba.
Excepto en el caso de las cuentas falsas en Facebook, este informe no incluye actualmente ninguna métrica relacionada con las infracciones de las cuentas. Tampoco incluye métricas de páginas, grupos o eventos sobre los que hayamos tomado medidas por alguna infracción, sino solo el contenido dentro de esos objetos.
Lee el Informe de cumplimiento de las Normas comunitarias más reciente