Як компанія Meta інвестує в технології

ОНОВЛЕНО 19 січ. 2022 р.
Ми інвестуємо в штучний інтелект, щоб поліпшити нашу здатність виявляти контент, що порушує правила, і забезпечувати безпеку користувачів. Незалежно від того, чи йдеться про вдосконалення наявної системи чи впровадження нової, ці інвестиції допомагають нам автоматизувати прийняття рішень щодо контенту, щоб ми могли швидше реагувати та зменшити кількість помилок.
Нижче наведено деякі з інвестицій, які ми зробили в технології ШІ, щоб поліпшити розуміння контенту нашими інструментами.
  • Ми розробили нову архітектуру під назвою Linformer, яка аналізує контент у Facebook та Instagram у різних регіонах світу.
  • Ми створили нову систему під назвою Reinforced Integrity Optimizer, яка навчається на основі онлайн-сигналів, щоб поліпшити нашу здатність виявляти мову ворожнечі.
  • Ми вдосконалили інструмент зіставлення зображень під назвою SimSearchNet, який допомагає нашій технології виявляти найдрібніші відмінності в контенті, щоб ми могли вживати заходів щодо дезінформації.
  • Ми впровадили мовні інструменти під назвою XLM та XLM-R, які допомагають нам створювати класифікатори, що розуміють одне й те саме поняття різними мовами. Це означає, що коли наша технологія може навчатися однією мовою, вона може покращити свою ефективність іншими мовами, що є особливо корисним для мов, які рідше використовуються в Інтернеті.
  • Ми створили систему розуміння цілих сутностей, яка аналізує контент, щоб допомогти визначити, чи містить він мову ворожнечі.
Просування галузі ШІ вперед завдяки відкритим спільним зусиллям
Проблеми, пов’язані зі шкідливим контентом, впливають на всю технологічну галузь і суспільство загалом. Ось чому ми відкриваємо доступ до наших технологій, щоб інші могли нею користуватися. Ми віримо, що відкритість і співпраця зі спільнотою у сфері ШІ сприятимуть розвитку досліджень і розробок, створенню нових способів виявлення шкідливого контенту й запобігання йому, а також допоможуть гарантувати безпеку людей.
Ось деякі технології, вихідний код яких ми зробили відкритим в останні роки, включно з 2 галузевими конкурсами, у яких ми зайняли провідну роль:
XLM-R — це модель машинного навчання, що навчається однією мовою, а потім використовується з іншими мовами без додаткових навчальних даних. Оскільки люди публікують контент більш ніж 160 мовами на технологіях Meta, XLM-R дає нам змогу використовувати одну модель для багатьох мов замість однієї моделі для кожної мови. Це допомагає нам легше виявляти мову ворожнечі й інший контент, що порушує правила, у різноманітті мов, а також запускати продукти відразу багатьма мовами. Ми відкрили доступ до наших моделей і коду, щоб наукова спільнота могла покращити продуктивність своїх багатомовних моделей.
Мета: надати людям найкращий досвід використання наших платформ незалежно від мови, якою вони розмовляють.
Linformer — це трансформаторна архітектура, яка аналізує мільярди одиниць контенту у Facebook та Instagram у різних регіонах світу. Linformer допомагає виявляти мову ненависті й контент, що підбурює до насильства. Ми опублікували результати наших досліджень і відкрили доступ до коду Linformer, щоб інші дослідники та інженери могли вдосконалити свої моделі.
Мета: створити нову модель ШІ, яка навчається на основі тексту, зображень і мовлення й ефективно виявляє мову ворожнечі, торгівлю людьми, цькування й інші форми шкідливого контенту.
Спільно з Microsoft, Партнерством із питань ШІ й науковцями з кількох університетів ми організували змагання для розробки технології, яка б краще виявляла випадки використання ШІ для зміни відео з метою введення глядачів в оману. Наш внесок у виклик із виявлення діпфейків полягав у створенні реалістичного набору даних, якого бракувало галузі, для виявлення діпфейків.
Мета: стимулювати галузь до створення нових способів виявлення використання медіафайлів, маніпульованих за допомогою ШІ для введення людей в оману, і запобігання такому використанню.
Спільно з Getty Images і DrivenData ми організували змагання, щоб прискорити дослідження проблеми виявлення мови ворожнечі, що поєднує зображення й текст. Наш внесок у виклик із боротьби з мемами, що несуть у собі мову ворожнечі, полягав у створенні унікального набору даних, що містив понад 10 000 прикладів, щоб дослідники могли легко використовувати їх у своїй роботі.
Мета: стимулювати галузь до створення нових підходів і методів виявлення мультимодальних проявів мови ворожнечі.