Наш подход к опасным организациям и лицам

ОБНОВЛЕНО 11 ноя 2024 г.
На нашей платформе нет места группам или лицам, пропагандирующим насилие, организованную преступность, ненависть или терроризм. За годы работы мы внедрили и продолжаем разрабатывать правила в отношении опасных организаций и лиц, а также процессы для работы с контентом такого типа. Мы стремимся предоставить людям возможность обсуждать события в мире, влияющие на их жизнь, жизнь их семей и сообществ. При этом наша политика призвана определить границы допустимого на наших платформах.
policy-image
Наши правила призваны поддерживать безопасность на наших платформах
В нашей отрасли у Meta один из самых всеобъемлющих сводов правил в отношении террористических организаций, групп, организованных на почве ненависти, организованных преступных организаций (например картелей), организаций, провоцирующих насилие, и лиц, причастных к обозначенным актам насилия (например, массовым расстрелам и террористическим актам).
В соответствии с настоящей политикой в отношении опасных организаций и лиц мы обозначаем и блокируем лиц и организации, которые участвуют в такой деятельности, и удаляем прославляющий и поддерживающий их контент, когда нам становится о нем известно. Мы также обозначаем и блокируем организации, которые провоцируют насилие, т. е. занимающиеся подготовкой или пропагандой будущих актов насилия, даже если они ещё не участвовали в подобной деятельности, а также удаляем прославляющий и поддерживающий их контент.
Ознакомиться с нашими общедоступными правилами можно в Нормах сообщества. Кроме того, мы регулярно публикуем подробную информацию о том, сколько такого контента удаляем, в нашем ежеквартальном отчете об обеспечении соблюдения Норм сообщества.
Порядок и причины обозначения опасных организаций и лиц
Мы не допускаем на платформах Meta организации или лиц, которые пропагандируют насилие или ненависть либо участвуют в насильственных действиях. При оценке таких лиц мы учитываем их поведение онлайн и офлайн, в особенности их связь с насилием. В соответствии с этой политикой мы обозначаем людей, организации и сообщества людей. Чтобы эффективнее, пропорциональнее и последовательнее обеспечивать соблюдение правил в отношении контента, мы разделили обозначения на два уровня. Узнать больше об этих уровнях и типах организаций, которые к ним относятся, можно в Нормах сообщества.
У нас есть надежная внутренняя процедура, учитывающая различные источники информации для оценки организаций и лиц на предмет возможного обозначения их как опасных. Мы разработали собственные определения и процедуру обозначения, не зависящие от региона или идеологии, чтобы эффективно, справедливо и упреждающе защищать наши платформы.
Эта работа ведется постоянно. Мы непрерывно оцениваем риски и обозначаем группы и лица на основе их поведения, новых обстоятельств и сведений, внутреннего экспертного анализа и мнений внешних заинтересованных сторон. Например, как мы объявили в январе 2024 года, если обозначенные организации или лица изменят поведение, мы можем исключить их из списка — в частности, если они (1) не включены правительством США в список специально обозначенных лиц, участвующих в незаконном обороте наркотиков (SDNTK); иностранных террористических организаций (FTO) или специально обозначенных международных террористов (SDGT); (2) больше не участвуют в насилии или деятельности на почве ненависти; и (3) не символизируют насилие и ненависть и не используются для того, чтобы подстрекать к дальнейшему насилию или пропагандировать насилие или ненависть.
Мы высоко ценим прозрачность и непрерывно ищем компромиссные решения, однако сейчас не раскрываем подробности нашего списка опасных организаций и лиц. Это необходимо, чтобы снизить риски безопасности и юридические риски, а также чтобы не позволить таких опасным субъектам обойти наши механизмы обеспечения соблюдения правил в отношении контента.
Порядок обеспечения соблюдения правил в отношении опасных организаций и лиц
Чтобы противостоять деятельности опасных организаций и лиц, мы вкладываем значительные средства в специалистов, технологии, сотрудничество и исследования.
  • Технологии. Мы используем искусственный интеллект в сочетании с человеческим, инвестируем в исследования и сотрудничаем с независимыми экспертами и организациями, чтобы быть в курсе последних изменений в этой области. Мы используем ИИ для обнаружения видео, изображений, аудио, текста и даже графики, например логотипов и рисунков, изображающих насилие. Мы также предоставляем всей отрасли инструменты с открытым исходным кодом, чтобы партнеры могли использовать технологии для борьбы с опасными организациями и лицами на своих платформах. Например, чтобы помочь всем компаниям нашей отрасли защитить свои платформы от террористического контента, в декабре 2022 года мы предоставили доступ к бесплатному инструменту Hasher Matcher Actioner (HMA) с открытым исходным кодом, который помогает платформам выявлять копии изображений или видео и массово применять к ним меры.
  • Специалисты. Анализ контекста и терминологии зачастую представляет собой непростую задачу, и технологии не всегда могут отличить прославление опасных организаций и лиц от критики с культурной спецификой. Именно поэтому Meta инвестирует в безопасность и защиту миллиарды долларов. В настоящее время над этой задачей работает около 40 тысяч наших специалистов. В частности, у нас есть команда, в которую входят сотни специалистов из разных областей, обладающих знаниями и опытом в самых разных сферах, от правоохранительной деятельности и национальной безопасности до контртеррористической разведки и академических исследований в сфере радикализации.
  • Партнеры. Пока в мире существует вредоносная деятельность, ее будут вести и в Интернете. Ни одна компания не сможет решить эту проблему в одиночку. Вот почему так важно сотрудничать с другими компаниями, общественными организациями, исследователями и правительствами. Мы сотрудничаем с правительствами и межправительственными организациями по всему миру, а также поддерживаем партнерские отношения с экспертами в противодействии терроризму, экстремизму, враждебному поведению онлайн и в сфере киберразведки.
    • GIFCT. В 2017 году мы вместе с YouTube, Microsoft и Twitter создали Глобальный интернет-форум по борьбе с терроризмом (GIFCT) — организацию по борьбе с использованием цифровых платформ террористами и экстремистами. В 2019 году форум GIFCT стал независимой некоммерческой организацией, координирующей кризисное реагирование на атаки по всей отрасли.
    • Правоохранительные органы Если мы узнаем о реальной и непосредственной угрозе человеческой жизни, то немедленно уведомляем об этом правоохранительные органы. Meta также сотрудничает с правоохранительными органами в случаях нападений с применением насилия. Однако мы тщательно проверяем каждый запрос от государственных органов, чтобы убедиться, что он юридически обоснован и соответствует международно признанным стандартам в области прав человека, включая соблюдение предусмотренных законом процедур, защиту конфиденциальности, свободы слова и принципов верховенства закона. Если мы считаем, что запрос недостаточно обоснован или слишком расплывчат, то отклоняем его. Узнать больше о нашем сотрудничестве с правоохранительными органами можно здесь.
  • Независимые исследования. Мы заказываем у аналитических центров, ученых и неправительственных организаций независимые исследования по различным темам, касающимся использования Интернета экстремистами и террористами, чтобы помочь нашей отрасли прояснить эти важные вопросы и добиться прогресса в их решении. В 2022 году компания Meta анонсировала сотрудничество с Центром изучения терроризма, экстремизма и контртеррористической деятельностиИнститута международных исследований Миддлбери для анализа актуальных тенденций в сфере экстремизма и эффективных инструментов, помогающих сообществам бороться с ним.
  • Стратегия борьбы с сетями. Хотя большинство наших мер по борьбе с терроризмом и организованной деятельностью на почве ненависти сводится к регулярному удалению контента, иногда этого недостаточно. Наши противники не сдаются, и обозначенные опасные субъекты иногда пытаются обходить наши меры по обеспечению соблюдения правил в отношении контента и вновь создавать свои сети на нашей платформе. Для борьбы с такими сетями мы используем подход под названием "стратегия борьбы с сетями" (Strategic Network Disruption). Стратегия борьбы с сетями позволяет нам удалять сразу всю сеть уже заблокированных опасных организаций и лиц, — либо когда они впервые обозначены как таковые, либо в рамках непрерывной работы над тем, чтобы эти обозначенные группы не могли пользоваться нашей платформой. Полное отсечение этих кластеров усложняет их возвращение на нашу платформу. Это также дает им понять, что мы знаем об их присутствии и что присутствие этих групп на наших платформах не приветствуется. Наконец, такой подход позволяет нам изучить, как эти опасные организации и лица могут пытаться обойти систему обнаружения и вернуться в наши приложения после удаления их аккаунтов.
Профилактика
Компания Meta уделяет большое внимание безопасности и целостности своих платформ. Для этого мы, в частности, принимаем профилактические меры, чтобы предотвратить распространение идеологии опасных организаций и лиц до того, как она укоренится в умах людей или в сообществах. Эти меры включают целенаправленное вмешательство и поощрение позитивных высказываний. Мы считаем, что конструктивный диалог крайне важен, и стремимся создать подходящую среду.
Чтобы усилить наши меры, мы активно сотрудничаем с организациями гражданского общества, которые противодействуют экстремизму, организованной деятельности на почве ненависти и преступной деятельности. Чтобы поддержать такие организации, мы расширяем их возможности и предоставляем им необходимые ресурсы для создания контента, поощряющего общественное осуждение. Этот контент опровергает экстремистские идеи и предлагает альтернативные точки зрения, помогая сформировать более позитивную и инклюзивную онлайн-среду.
Мы используем многогранный и проактивный подход к борьбе с экстремизмом, включающий в себя упреждающие меры, сотрудничество и поощрение позитивных высказываний.
  • The Resiliency Initiative — это программа для организаций гражданского общества в Азии, Африке и США, в рамках которой они изучают стратегии предотвращения экстремизма и борьбы с ним, а также получают ресурсы для проведения кампаний по общественному осуждению. В рамках The Resiliency Initiative компания Meta запустила в США совместный проект с организацией Search for Common Ground (SFCG) для поддержки партнеров в местных сообществах, которые борются с насилием на почве ненависти и укрепляют социальную и общественную безопасность.
  • Более безопасный поиск. При необходимости мы также предлагаем ресурсы людям, которые выполняют поиск по ключевым словам, связанным с опасными организациями и лицами. Если пользователи ищут на Facebook, в Instagram и Threads термины, связанные с опасными организациями и лицами, вместо них им предлагаются учебно-просветительские ресурсы, чтобы убедить не искать контент от таких субъектов.
    Мы также запустили программу по контролю результатов поиска в ряде стран, включая Австралию, США, Великобританию, Германию, Индию, Индонезию и Пакистан. Если кто-то выполняет поиск по ключевым словам, характерным для конкретного рынка и, как правило, связанным с конкретным вредом от опасных организаций и лиц, мы предлагаем ему дополнительную информацию и ресурсы при поддержке местной организации гражданского общества, которая специализируется на поддержке пользователей, подверженных риску экстремизма.
  • Предоставление ресурсов общественным организациям. Мы также реализуем программу "Безопасная реклама", в рамках которой помогаем партнерским организациям гражданского общества предотвращать вред, предоставляя им купоны на рекламу и стратегическую поддержку при проведении программ общественного осуждения. Мы стремимся расширять наше сотрудничество с такими организациями в целях борьбы с опасными организациями и лицами.
Такая работа ведется непрерывно. Пока в мире существуют опасные организации и лица, они будут присутствовать и в Интернете, поэтому мы не теряем бдительности. Эти группы постоянно применяют новые тактические приемы, чтобы избежать обнаружения и обойти наши политики и меры по обеспечению соблюдения правил в отношении контента. Именно поэтому мы регулярно оцениваем и обновляем наши подходы.