Meta

Meta
Políticas
Normas comunitariasNormas de publicidad de MetaOtras políticasCómo mejora MetaContenido apropiado para la edad

Funciones
Nuestro enfoque sobre personas y organizaciones peligrosasNuestro enfoque sobre la epidemia de opioidesNuestro enfoque sobre las eleccionesNuestro enfoque sobre la información erróneaNuestro enfoque sobre el contenido de interés periodísticoNuestro enfoque sobre la clasificación del feed de FacebookNuestro enfoque para explicar la clasificaciónAccesibilidad en Meta

Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenidoHerramientas de la biblioteca de anunciosOtras herramientas y conjuntos de datos de investigación

Aplicación de políticas
Detección de infraccionesMedidas que tomamos

Gobernanza
Innovación en materia de gobernanzaDescripción general del Consejo asesor de contenidoCómo apelar al Consejo asesor de contenidoCasos del Consejo asesor de contenidoRecomendaciones del Consejo asesor de contenidoCreación del Consejo asesor de contenidoConsejo asesor de contenido: Preguntas frecuentesActualizaciones semestrales de Meta sobre el Consejo asesor de contenidoSeguimiento del impacto del Consejo asesor de contenido

Seguridad
Interrupciones por amenazasAmenazas de seguridadInforme de amenazas

Informes
Informe de cumplimiento de las Normas comunitariasPropiedad intelectualSolicitudes gubernamentales de datos de usuariosRestricciones de contenido en virtud de la legislación localInterrupciones de internetInforme de contenido con muchas visualizacionesInformes regulatorios y otros informes de transparencia

Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Políticas
Normas comunitarias
Normas de publicidad de Meta
Otras políticas
Cómo mejora Meta
Contenido apropiado para la edad
Funciones
Nuestro enfoque sobre personas y organizaciones peligrosas
Nuestro enfoque sobre la epidemia de opioides
Nuestro enfoque sobre las elecciones
Nuestro enfoque sobre la información errónea
Nuestro enfoque sobre el contenido de interés periodístico
Nuestro enfoque sobre la clasificación del feed de Facebook
Nuestro enfoque para explicar la clasificación
Accesibilidad en Meta
Herramientas de investigación
Biblioteca de contenido y API de la biblioteca de contenido
Herramientas de la biblioteca de anuncios
Otras herramientas y conjuntos de datos de investigación
Aplicación de políticas
Detección de infracciones
Medidas que tomamos
Gobernanza
Innovación en materia de gobernanza
Descripción general del Consejo asesor de contenido
Cómo apelar al Consejo asesor de contenido
Casos del Consejo asesor de contenido
Recomendaciones del Consejo asesor de contenido
Creación del Consejo asesor de contenido
Consejo asesor de contenido: Preguntas frecuentes
Actualizaciones semestrales de Meta sobre el Consejo asesor de contenido
Seguimiento del impacto del Consejo asesor de contenido
Seguridad
Interrupciones por amenazas
Amenazas de seguridad
Informe de amenazas
Informes
Informe de cumplimiento de las Normas comunitarias
Propiedad intelectual
Solicitudes gubernamentales de datos de usuarios
Restricciones de contenido en virtud de la legislación local
Interrupciones de internet
Informe de contenido con muchas visualizaciones
Informes regulatorios y otros informes de transparencia
Español
Política de privacidadCondiciones del servicioCookies
Inicio
Enfoques
Personas y organizaciones peligrosas

Nuestro enfoque sobre personas y organizaciones peligrosas

ÚLTIMA ACTUALIZACIÓN 11 NOV. 2024
En nuestra plataforma, no hay lugar para grupos o personas que promuevan la violencia, el crimen organizado, el odio o el terrorismo. Tras años de trabajo, desarrollamos, y seguimos desarrollando, políticas y procesos en relación con personas y organizaciones peligrosas para abordar este tipo de contenido. Si bien nos comprometimos a propiciar un espacio para que las personas hablen sobre los acontecimientos que ocurren en el mundo que repercuten en su vida, sus familias y comunidades, el propósito de nuestra política es definir con precisión lo que no se permite en nuestras plataformas.
policy-image

Nuestras políticas se diseñaron para proteger nuestras plataformas
Meta cuenta con una de las políticas más integrales del sector, que apunta a organizaciones terroristas, grupos de odio, organizaciones de crimen organizado (como cárteles), entidades que inducen a la violencia y perpetradores de hechos infractores designados (como tiroteos masivos o ataques terroristas).
En virtud de esta política de personas y organizaciones peligrosas, designamos y prohibimos a personas y organizaciones implicadas en dichas actividades, y eliminamos el contenido que las glorifica o apoya en cuanto tomamos conocimiento de él. También designamos y prohibimos entidades que inducen a la violencia dedicadas a preparar o promover futuros actos violentos, pero que no necesariamente los han cometido hasta la fecha. Asimismo, eliminamos el contenido que las apoya o glorifica.
Nuestras políticas son públicas y puedes leerlas en más detalle en la página de nuestras Normas comunitarias. Además, publicamos con regularidad información sobre la cantidad de este contenido que eliminamos en nuestro Informe de cumplimiento de las Normas comunitarias trimestral.

Cómo y por qué designamos
No permitimos que organizaciones ni personas que reivindiquen una misión violenta o de odio, o que estén involucradas en actos de violencia, tengan presencia en las plataformas de Meta. Evaluamos a estas entidades en función de su comportamiento tanto online como offline y, principalmente, sus vínculos con la violencia. En virtud de esta política, designamos a personas, organizaciones y redes de personas. Para garantizar que la aplicación de políticas sea más efectiva, proporcionada y coherente, dividimos las designaciones en dos niveles. Puedes consultar más detalles sobre estos niveles, y los tipos de organizaciones que abarca cada uno de ellos, en nuestras Normas comunitarias.
Contamos con un sólido proceso interno propio (que tiene en cuenta muchas fuentes de información), el cual usamos para evaluar a organizaciones y personas ante una posible designación. Desarrollar nuestras propias definiciones y procesos para la designación, independientemente de regiones o ideologías, nos permite ser firmes, equitativos y proactivos a la hora de proteger nuestras plataformas.
No es una labor estática. Evaluamos continuamente los riesgos y analizamos grupos y personas para realizar la designación en función de su comportamiento, las circunstancias cambiantes, la nueva información, el análisis de expertos internos y el aporte de partes externas. Por ejemplo, como anunciamos en enero de 2024, cuando una organización o persona designada rectifica su comportamiento, también reúne los requisitos para que la quitemos de nuestra lista, específicamente si (1) no la designó el Gobierno de los EE. UU. como traficante de narcóticos especialmente designada, organización terrorista extranjera o terrorista mundial especialmente designado; (2) ya no participa en actos de violencia u odio; y (3) no es símbolo de odio y violencia, ni se la usa para incitar a más violencia o distribuir propaganda violenta o de odio.
Si bien valoramos muchísimo la transparencia y evaluamos continuamente ventajas y desventajas, hoy en día no compartimos los detalles de nuestra lista de designación a fin de mitigar riesgos legales y de seguridad, y evitar que estos agentes peligrosos eludan nuestros mecanismos de aplicación de políticas.

Cómo aplicamos la política de personas y organizaciones peligrosas
Realizamos importantes inversiones en recursos humanos, tecnología, asociaciones e investigaciones a favor de nuestra lucha contra la actividad de personas y organizaciones peligrosas.
  • Tecnología: abordamos este espacio mediante una combinación de IA e inteligencia humana. Además, invertimos en investigaciones y trabajamos en colaboración con organizaciones y expertos externos para mantenernos al ritmo de este entorno en constante cambio. Usamos la IA para detectar videos, imágenes, audio y texto e, incluso, gráficos, como logotipos y representaciones de violencia. Asimismo, ponemos a disposición del sector herramientas de código abierto para ayudar a nuestros socios a acceder a tecnología que les permita luchar contra personas y organizaciones peligrosas en sus propias plataformas. Por ejemplo, en diciembre de 2022, con el objetivo de que a cada empresa del sector le resultara más fácil mantener sus plataformas libres de contenido terrorista, pusimos a disposición una herramienta de software de código abierto gratuita denominada "Hasher Matcher Actioner" (HMA), que permitirá a las plataformas identificar copias de imágenes o videos y tomar medidas al respecto de forma masiva.
  • Personas: el contexto y el idioma suelen ser asuntos complejos, y la tecnología no siempre puede distinguir la glorificación de una persona u organización peligrosa de la crítica específica de una cultura. Por ello, Meta invirtió miles de millones de dólares y cuenta con un equipo de casi 40.000 personas que trabajan en seguridad y protección. En este grupo, contamos con un equipo interdisciplinario conformado por cientos de personas con conocimientos específicos, como aplicación de leyes y seguridad nacional, inteligencia antiterrorismo y estudios académicos sobre la radicalización, que llevan a cabo esta labor.
  • Asociaciones: si hay actividades dañinas en el mundo, las hay en internet, y ninguna empresa puede resolver estos problemas por su cuenta. Por este motivo, es sumamente indispensable asociarse con otras partes, como empresas, la sociedad civil, investigadores y gobiernos. Colaboramos con gobiernos y agencias intergubernamentales de todo el mundo, y nos asociamos con organizaciones con conocimientos sobre terrorismo, extremismo violento, ciberinteligencia y comportamientos conflictivos online.
    • GIFCT: unimos nuestras fuerzas con las de YouTube, Microsoft y Twitter en 2017 para crear el Foro Global Contra el Terrorismo (GIFCT), una organización creada con el objetivo de evitar que terroristas y extremistas violentos exploten las plataformas digitales. GIFCT se convirtió en una ONG independiente en 2019 y coordina la respuesta ante emergencias del sector cuando ocurren ataques.
    • Fuerzas del orden: cuando tomamos conocimiento de una amenaza específica, inminente y creíble contra la vida de una persona, no dudamos en notificársela a las fuerzas del orden. Meta colabora también con las fuerzas del orden cuando ocurren ataques violentos, aunque siempre analizamos en detalle cada solicitud gubernamental para constatar que es legalmente válida y coherente con las normas de derechos humanos reconocidas internacionalmente, incluidas las de debido proceso, privacidad, libertad de expresión y estado de derecho. Si determinamos que una solicitud parece deficiente o demasiado ambigua, la rechazamos. Obtén más información sobre nuestra labor con las fuerzas del orden aquí.
  • Investigaciones independientes: encomendamos investigaciones independientes de grupos de expertos, académicos y ONG sobre varios temas relacionados con el extremismo violento y el uso de internet por parte del terrorismo, de modo que nuestro sector conozca estos asuntos importantes y evolucione en ese sentido. En 2022, Meta anunció una investigación conjunta con Center on Terrorism, Extremism, and Counterterrorism de Middlebury Institute of International Studies para analizar las cambiantes tendencias en el terrorismo violento y las herramientas efectivas que ayudan a las comunidades a combatirlo.
  • Interrupciones de red estratégicas: si bien la mayoría de las medidas normativas que aplicamos contra el terrorismo y el odio organizado derivan de la eliminación rutinaria de contenido, en ocasiones no son suficientes. Estamos ante un espacio conflictivo, y las entidades designadas a veces intentan eludir nuestras medidas y volver a conformar redes en nuestra plataforma. Para combatir estas redes, usamos un enfoque clave que denominamos interrupciones de red estratégicas. Estas interrupciones nos permiten eliminar una red de personas u organizaciones peligrosas ya prohibidas a la vez, ya sea cuando se las designa por primera vez, o como parte de nuestro trabajo constante para mantener estos grupos designados fuera de nuestra plataforma. Si se eliminan estos grupos por completo, les resulta aún más difícil regresar a la plataforma. Además, esta medida envía un mensaje claro: estamos al tanto de su presencia y no son bienvenidos en nuestras plataformas. Por último, esta técnica nos permite estudiar cómo estas personas y organizaciones peligrosas intentan eludir nuestra detección, y cómo pueden intentar volver a nuestras apps luego de que eliminemos sus cuentas.
    • En junio de 2023, la revista académica independiente Proceedings of the National Academy of Sciences (PNAS) publicó un ensayo elaborado por los investigadores de Meta Daniel Robert Thomas y Laila A. Wahedi en el que explicaban la eficiencia de nuestras estrategias de interrupción de red para desbaratar grupos de odio. Nos dimos cuenta de que la táctica funciona y permite a los usuarios gozar de una experiencia más sana y segura en nuestras plataformas.

Labor de prevención
En Meta, nos dedicamos a mantener la seguridad e integridad de nuestras plataformas. Para lograrlo, recurrimos, entre otras estrategias, a la prevención, que implica tomar medidas proactivas para prevenir la difusión de contenido de personas y organizaciones peligrosas antes de que sienten sus bases en personas o comunidades. Esto incluye realizar intervenciones dirigidas y promover discursos positivos. Creemos que es indispensable entablar un diálogo constructivo y nos esforzamos por generar un entorno que motive dichos intercambios.
Para nutrir aún más nuestras iniciativas, trabajamos activamente con organizaciones de sociedad civil que se dedican a luchar contra el extremismo, el odio organizado y las actividades criminales. Para respaldar a estas organizaciones, consolidamos su capacidad y les brindamos los recursos necesarios para crear contenido con contraargumentos. Este contenido desafía la narrativa extremista y ofrece perspectivas alternativas, lo que permite fomentar un entorno online más positivo e inclusivo.
Aplicamos un enfoque multifacético y proactivo respecto de la lucha contra el extremismo que combina la prevención, la colaboración y la promoción de discursos positivos.
  • The Resiliency Initiative es un programa que capacita a organizaciones de sociedad civil para que pongan en marcha estrategias de campañas de prevención y lucha contra el extremismo violento en Asia, África y los Estados Unidos y que consolida su capacidad para llevar a cabo campañas de contraargumento efectivas. Como parte de The Resiliency Initiative, Meta lanzó una colaboración en los Estados Unidos con Search for Common Ground (SFCG) para respaldar a los socios de la comunidad que trabajan localmente para combatir la violencia que incita el odio y consolidar la resiliencia social y comunitaria.
  • Búsquedas más seguras: si corresponde, también dirigimos a las personas a recursos cuando buscan términos asociados con personas y organizaciones peligrosas. Cuando los usuarios buscan términos relacionados con ellas en Facebook, Instagram y Threads, se les proporcionan recursos. De este modo, se los disuade de buscar este tipo de contenido y se les brindan recursos educativos.
    También llevamos a cabo un programa de investigación en varios países, incluido Australia, los Estados Unidos, el Reino Unido, Alemania, la India, Indonesia y Pakistán. Si una persona busca términos específicos de cada mercado y se centra particularmente en los daños que las personas u organizaciones peligrosas causan, le ofrecemos información y recursos adicionales en colaboración con una organización de sociedad civil local que se especializa en ofrecer servicios de ayuda a los usuarios que están en riesgo de extremismo.
  • Recursos que se proporcionan a las organizaciones comunitarias: también llevamos adelante un programa de anuncios seguros, cuyo fin es respaldar a los socios de organizaciones de sociedad civil a fin de prevenir daños de manera proactiva. Para ello, les brindamos créditos y apoyo estratégico cuando ponen en marcha programas de contraargumentos. Mediante nuestra labor conjunta con estas organizaciones, buscamos ampliar nuestras asociaciones en la lucha contra personas y organizaciones peligrosas.
Se trata de una tarea en curso y sabemos que, siempre que haya personas y organizaciones peligrosas en el mundo, las habrá en internet. Por eso, estamos atentos en todo momento. Estos grupos adoptan nuevas tácticas para evitar la detección e intentan evadir nuestras políticas y su aplicación. Por lo tanto, trabajamos continuamente para estar por delante de ellos, y evaluamos y actualizamos nuestro enfoque.