Як працює технологія, що стежить за дотриманням правил
ОНОВЛЕНО 12 лист. 2024 р.
Побудова моделей і прогнозування
Процедура починається з наших команд у сфері штучного інтелекту. Вони створюють моделі машинного навчання, які можуть виконувати такі завдання, як розпізнавання об’єктів на світлині або розуміння змісту тексту. Потім наші команди з контролю відповідності, які відповідають за масштабування виявлення і дотримання наших політик, будують на основі цих моделей більш конкретні моделі, які роблять прогнози щодо людей і контенту. Ці прогнози допомагають нам забезпечити дотримання наших правил.
Наприклад, модель ШІ прогнозує, чи містить певний контент мову ворожнечі або зображення сцен насильства. Окрема система – наша технологія, що стежить за дотриманням правил – визначає, чи потрібно вживати заходів, наприклад видаляти контент, понижувати його або надсилати команді перевірки людиною для подальшого розгляду.
Навчання за допомогою повторення, що перевіряється людьми
Коли ми створюємо нову технологію для забезпечення дотримання правил контенту, ми навчаємо її шукати певні сигнали. Наприклад, деякі технології шукають на світлинах зображення оголеного тіла, тоді як інші вчаться розуміти текст. Спочатку новий тип технології може забезпечувати низький рівень достовірності щодо того, чи порушує контент наші правила.
Потім команди перевірки можуть ухвалювати остаточне рішення, а наша технологія може вчитися на кожному рішенні людини. Із часом, після вивчення тисяч рішень людини, технологія стає точнішою.
Наші правила також змінюються із часом, щоб відповідати змінам у нашому продукті, соціальних нормах і мові. У результаті процес навчання наших технологій і команд перевірки є поступовим і циклічним.
Виявлення повторних порушеньТехнологія дуже добре знову і знову виявляє той самий контент – мільйони разів, якщо необхідно. Наша технологія вживає заходів щодо нового контенту, якщо він збігається з іншим контентом, що порушує правила, або дуже схожий на нього. Це особливо корисно у випадках вірусних дезінформаційних кампаній, мемів та іншого контенту, що може надзвичайно швидко поширюватися.
Розрізнення незначних відмінностей
Технології можуть знову і знову знаходити і видаляти один і той самий контент. Але великою проблемою залишається навчити машину розуміти нюанси вибору слів або те, як невеликі відмінності можуть змінити контекст.
Перше зображення – це оригінал оманливого контенту, який містить дезінформацію щодо безпеки громадського здоров’я.
Друге зображення – це знімок екрана першого зображення, цього разу з панеллю меню комп’ютера вгорі.
Наостанок, третє зображення дуже схоже на перше і друге, але в ньому є дві невеликі зміни слів, внаслідок яких заголовок стає точним і більше не є хибним.
Це досить легко зрозуміти людині, але складно для технологій. Існує ризик занадто сильно помилитися в той чи інший бік. Якщо технологія буде занадто агресивною, вона видалить мільйони дописів, які нічого не порушують. Якщо вона недостатньо агресивна, то вирішить, що знімок екрана з панеллю меню відрізняється від оригіналу, і не вживе жодних заходів щодо контенту.
Ми багато працюємо над цим. За останні кілька років ми зробили кілька інвестицій, щоб допомогти нашій технології краще визначати незначні відмінності в контенті. З кожним днем вона стає дедалі точнішою, оскільки продовжує вчитися.