Как Meta инвестирует в технологии?

ОБНОВЛЕНО 19 янв 2022 г.
Мы инвестируем в искусственный интеллект, чтобы эффективнее обнаруживать контент, нарушающий правила, и защищать пользователей. Эти инвестиции направлены как на улучшение существующей системы, так и на внедрение новой. Они помогают нам автоматизировать принятие решений в отношении контента, чтобы мы могли быстрее реагировать и уменьшить количество ошибок.
Ниже описаны некоторые из наших инвестиций в технологии ИИ, призванные научить наши инструменты лучше анализировать контент.
  • Мы разработали новую архитектуру Linformer, которая анализирует контент на Facebook и в Instagram в разных регионах мира.
  • Мы создали новую систему Reinforced Integrity Optimizer, которая учится на онлайн-сигналах, чтобы мы могли эффективнее обнаруживать враждебные высказывания.
  • Мы улучшили инструмент сопоставления изображений SimSearchNet, который помогает нашей технологии обнаруживать тонкие различия в контенте и принимать меры в отношении дезинформации.
  • Мы внедрили языковые инструменты XLM и XLM-R, которые помогают нам создавать классификаторы, распознающие одно понятие на нескольких языках. Благодаря этому наша система может учиться на одном языке, повышая свою результативность при работе с другими. Это особенно полезно для языков, которые реже употребляются в Интернете.
  • Мы создали систему распознавания целых объектов, которая анализирует контент и определяет, содержит ли он враждебные высказывания.
Открытые совместные инициативы для развития сектора ИИ
Проблемы, связанные с вредным контентом, затрагивают всю технологическую отрасль и общество в целом. Именно поэтому исходный код наших технологий открыт, а использовать его может каждый. Мы считаем, что открытость и сотрудничество с сообществом разработчиков ИИ способствуют исследованиям и прогрессу, которые принесут новые способы обнаружения и блокировки вредного контента ради безопасности пользователей.
Ниже описаны некоторые технологические решения, исходный код которых мы открыли в последние годы, в том числе 2 проведенных нами отраслевых соревнования.
XLM-R — это модель машинного обучения, которая обучается на одном языке, а затем используется при работе с другими языками без дополнительных тренировочных данных. Пользователи платформ Meta публикуют материалы более чем на 160 языках. Модель XLM-R можно использовать сразу для нескольких языков. Это помогает нам обнаруживать враждебные высказывания и другой нарушающий правила контент, а также выпускать продукты на нескольких языках сразу. Мы выложили в открытый доступ свои модели и код, чтобы сообщество исследователей могло повысить результативность своих многоязычных моделей.
Цель: обеспечить максимальное качество наших платформ для пользователей, независимо от языка.
Linformer — это архитектура-трансформер, которая анализирует миллиарды единиц контента на Facebook и в Instagram в разных регионах мира. Linformer помогает обнаруживать враждебные высказывания и призывы к насилию. Мы опубликовали свои исследования и выложили в открытый доступ код Linformer, чтобы другие исследователи и инженеры могли усовершенствовать свои модели.
Цель: создать новую модель ИИ, которая обучается на тексте, изображениях и речи, чтобы эффективно обнаруживать случаи враждебных высказываний, торговли людьми, травли и другие виды вредного контента.
Совместно с Microsoft, нашими партнерами по ИИ и профессорами ряда университетов мы организовали соревнование среди разработчиков. Участники должны были создать технологию, которая сможет лучше других обнаруживать видео, обработанные ИИ с целью ввести зрителей в заблуждение. Нашим вкладом в соревнование по поиску дипфейков стала подготовка реалистичного набора данных для обнаружения дипфейков, которого не хватало отрасли.
Цель: побудить отрасль к созданию новых способов обнаруживать и предотвращать манипулирование медиафайлами с использованием ИИ для введения зрителей в заблуждение.
Совместно с Getty Images и DrivenData мы организовали соревнование с целью ускорить исследование проблем, связанных с обнаружением враждебных высказываний, состоящих из изображения и текста. Нашим вкладом в соревнование по борьбе с враждебными мемами стало создание уникального набора данных более чем из 10 000 примеров, которые будет легко использовать в исследованиях.
Цель: побудить отрасль к созданию новых подходов и методик для обнаружения враждебных высказываний в мультимодальном формате.