Як компанія Meta визначає пріоритет контенту для перевірки

ОНОВЛЕНО 12 лист. 2024 р.
Технології Meta виявляють і видаляють більшість контенту, що порушує правила, ще до того, як на нього поскаржаться. Коли хтось публікує дописи у Facebook, Instagram, Messenger або Threads, наші технології перевіряють, чи не суперечить цей контент Стандартам спільноти. У більшості випадках ідентифікація є простою справою. Допис або явно порушує наші правила, або ні.
В інших випадках ідентифікація є складнішою. Можливо, сенс допису незрозумілий, його мова надто складна або образи надто залежать від контексту. У таких випадках ми залучаємо людей для проведення подальшої перевірки.
Пріоритетність факторів для перевірки людиною
Під час визначення того, який контент наші команди перевірки людиною повинні перевіряти передусім, ми враховуємо 3 основні фактори.
СТУПІНЬ СЕРЙОЗНОСТІ
Наскільки ймовірно, що контент може заподіяти шкоду в мережі та поза нею?
ВІРАЛЬНІСТЬ
Як швидко поширюється контент?
ІМОВІРНІСТЬ ПОРУШЕННЯ
Наскільки ймовірно, що контент, про який ідеться, насправді порушує наші правила?
Оскільки ми хочемо якомога ефективніше запобігати шкоді, наші системи перевірки використовують технологію для визначення пріоритетності контенту з високим ступенем серйозності, здатного заподіяти шкоду в реальному світі, і вірусного контенту, що швидко поширюється.
Команди перевірки людиною допомагають покращувати нашу технологію
Наші команди перевірки людиною використовують свій досвід у певних сферах політики й регіонах для прийняття складних, часто делікатних рішень. Щоразу, коли рецензенти приймають рішення, ми використовуємо цю інформацію, щоб навчати нашу технологію. Із часом наша технологія вдосконалюється завдяки мільйонам рішень, даючи нам змогу видаляти більше контенту, що порушує правила.
Як ми допомагаємо фахівцям з перевірки ухвалювати правильні рішення
Технологія допомагає командам перевірки людиною робити те, що вони вміють найкраще
Як і багато інших моделей машинного навчання, наша технологія із часом покращується в міру отримання більшої кількості прикладів контенту, що порушує правила. Це означає, що команди перевірки людиною можуть більше зосереджуватися на серйозному, вірусному, делікатному, новому й складному контенті – саме на тих рішеннях, які зазвичай краще приймають люди, ніж технології.
Поширені запитання про пріоритетність перевірки контенту
Раніше команди перевірки людиною витрачали переважну більшість свого часу на перевірку контенту, на який скаржилися люди. Це означало, що вони часто витрачали забагато часу на контент із низьким ступенем серйозності або неявними ознаками порушення. Унаслідок цього на роботу з найсерйознішим контентом із найбільшим потенціалом заподіяння шкоди залишалося недостатньо часу. Це також означало, що багато рішень людини були не надто корисними для покращення нашої технології, що стежить за дотриманням правил.
Наш нинішній підхід до визначення пріоритетів вирішує ці проблеми, даючи нам змогу насамперед перевіряти потенційно найшкідливіший контент і швидше покращувати нашу технологію.
Необов’язково. До процесу перевірки скарг користувачів залучено людей і технологію. У тих випадках, коли наша технологія може проаналізувати той чи інший контент, вона автоматично вживає або не вживає заходів щодо нього.
Для вирішення проблем справедливості й інклюзивності, пов’язаних із впровадженням ШІ в технології Meta, ми створили команду спеціалістів, що стежать за відповідальним використанням ШІ, – спеціалізовану міждисциплінарну групу, до якої входять фахівці з етики, соціологи й політологи, експерти з політик, дослідники та інженери штучного інтелекту. Загальна ціль команди – розробити рекомендації, інструменти й процеси для вирішення проблем відповідального використання ШІ та допомогти забезпечити широке розповсюдження цих системних ресурсів у Meta.