Поширеність
ОНОВЛЕНО 6 бер. 2025 р.
Наша мета – звести до мінімуму вплив, спричинений порушеннями наших політик, на людей, які користуються нашими сервісами. Ми вимірюємо поширеність контенту, який порушує правила, щоб визначити ефективність досягнення нашої мети.
Що таке поширеність
Поширеність враховує всі перегляди контенту у Facebook або Instagram і є характеризує приблизну частку у відсотках переглядів контенту, який порушує правила. (Докладніше про те, як ми визначаємо перегляди, див. в розділі «Чому ми вимірюємо поширеність переглядів».) Ця метрика передбачає, що вплив, спричинений контентом, який порушує правила, пропорційний кількості переглядів цього контенту.
Поширеність також можна розуміти таким чином: це кількість переглядів контенту, який порушує правила, яким ми не запобігли через те, що не помітили порушення заздалегідь, або тому, що взагалі їх пропустили.
Як ми вимірюємо поширеність
Поширеність контенту, що порушує правила, оцінюється на основі зразків переглядів контенту у Facebook або Instagram. Ми розраховуємо цей показник таким чином: приблизна кількість переглядів контенту, який порушує правила, поділена на приблизну загальну кількість переглядів контенту у Facebook або Instagram. Якщо поширеність контенту із зображеннями оголеного тіла й дій сексуального характеру за участі дорослих становить від 0,18 % до 0,20 %, це означає, що на кожні 10 000 переглядів контенту в середньому припадають18–20 переглядів контенту, який порушує наші стандарти щодо зображення оголеного тіла та дій сексуального характеру за участі дорослих.
1 КРАПКА = 10 ПЕРЕГЛЯДІВ
ЗАГАЛОМ 10 000 ПЕРЕГЛЯДІВ
20 ПЕРЕГЛЯДІВ КОНТЕНТУ, ЩО ПОРУШУЄ ПРАВИЛА

Якщо поширеність становить 0,20 %, це означає, що на кожні 10 000 переглядів припадають 20 переглядів контенту, який порушує правила. Хоча цифри можуть бути дуже низькими, навіть найменша кількість переглядів може мати значний вплив на людей.
Деякі типи порушень трапляються в наших сервісах дуже рідко. Імовірність того, що люди переглядатимуть контент, що порушує правила, дуже низька, і ми видаляємо більшу частину цього контенту, перш ніж люди його побачать. Як наслідок, часто ми не знаходимо достатньо зразків із порушеннями, щоб точно оцінити поширеність. У цих випадках ми можемо оцінити верхню межу того, як часто користувачі бачитимуть контент, який порушує ці правила. Наприклад, якщо для контенту, що містить пропаганду тероризму, верхня межа становить 0,04 %, це означає, що з кожних 10 000 переглядів у Facebook або Instagram за цей період часу за нашими оцінками не більше ніж 4 із цих переглядів стосувалися контенту, який порушує наші правила щодо пропаганди тероризму.
Важливо зауважити, що коли поширеність типу порушення настільки низька, що ми можемо надати лише верхню межу, ця межа може змінюватися на кілька сотих відсоткового пункту між звітними періодами. Однак такі незначні зміни можуть бути статистично незначущими. У таких випадках ці невеликі зміни не вказують на фактичну різницю в поширеності такого контенту, який порушує правила в сервісі.
Чому ми вимірюємо поширеність переглядів
Ми оцінюємо частоту переглядів контенту, а не кількість опублікованого контенту, оскільки хочемо визначити, наскільки цей контент вплинув на людей у Facebook чи Instagram. Контент, який порушує правила, може бути опубліковано один раз, але його можуть побачити 1000 разів, 1 мільйон разів або не побачити взагалі. Вимірювання кількості переглядів контенту, який порушує правила, а не кількості публікацій такого контенту, краще відображає вплив на спільноту. Невеликий показник поширеності все одно може відповідати істотному впливу на наші сервіси через велику кількість загальних переглядів контенту в наших сервісах.
Ми реєструємо перегляд контенту, коли він з’являється на екрані користувача. Зокрема, перегляд відбувається, коли користувач:
- переглядає допис – навіть якщо в цьому дописі є кілька одиниць контенту, перегляд зараховується до допису;
- натискає, щоб збільшити світлину або відеопрогравач – перегляд зараховується до світлини або відео.
Як ми використовуємо вибірку, щоб оцінити поширеність
Ми оцінюємо поширеність шляхом вибірки переглядів контенту у Facebook або Instagram.
Для цього ми вручну перевіряємо зразки переглядів і зображений у них контент. Потім ми позначаємо ці зразки як такі, що порушують або не порушують наші правила. Команди, які роблять цю вибірку, перевіряють увесь допис на наявність порушень, навіть якщо під час перегляду з вибірки було показано не весь контент у дописі.
Використовуючи частину цих зразків із контентом, який порушує правила, ми оцінюємо частку у відсотках усіх переглядів такого контенту. Зверніть увагу, що ми не проводимо вибірку з кожної частини Facebook або Instagram для кожного типу порушення.
Для певних типів порушень ми використовуємо стратифіковану вибірку, яка збільшує частоту вибірки, якщо контекст указує на те, що перегляд контенту з більшою імовірністю містить порушення. Наприклад, якби контент із порушеннями мав більшу кількість переглядів у групах, ніж у стрічці, ми б імовірніше робили вибірку переглядів у групах, ніж у стрічці. Однією з причин, чому ми це робимо, є зменшення невизначеності через вибірку. Ми виражаємо цю невизначеність, наводячи діапазон значень, наприклад зазначаючи, що 18–20 із кожних 10 000 переглядів стосуються порушень у зв’язку із зображенням оголеного тіла та діями сексуального характеру за участі дорослих. Цей діапазон відображає вікно достовірності 95 %. Це означає, що якщо ми проводимо це вимірювання 100 разів, використовуючи щоразу різні зразки, ми очікуємо, що справжній показник перебуватиме в діапазоні 95 зі 100 разів.
Для типів порушень, контент із якими переглядається дуже рідко, вибірка вимагає дуже великої кількості зразків контенту, щоб оцінити точний показник поширеності. У цих випадках ми можемо лише оцінити верхню межу – це означає, що ми впевнені, що поширеність переглядів контенту з порушеннями нижча за цю межу, але ми не можемо точно сказати, наскільки. Наше вікно достовірності для цих верхніх меж також становить 95 %.
- Люди, які позначають наші зразки, іноді припускаються помилок, зокрема позначають зразки з порушеннями як такі, що не є порушеннями, або навпаки. Відносна кількість цих помилок може вплинути на вимірювання поширеності. Саме тому ми залучаємо двох осіб для перевірки зразка, щоб забезпечити точність позначення, а якщо виникнуть розбіжності, ми маємо третю особу, яка виступатиме як арбітр.
- Для порушень, як-от зображення сцен насильства, де контент можна позначити як тривожний, наш розрахунок поширеності враховує перегляди цього контенту до додавання приховання.
- Поточне вимірювання поширеності охоплює аспекти, на які припадає понад 90 % усіх переглядів у Facebook та Instagram, і не включає приватні розмови в Messenger або Instagram Direct.
- Щоб створити репрезентативне вимірювання глобальної поширеності, ми відбираємо й позначаємо контент кількома мовами для Facebook та Instagram. Ми впевнені, що цей підхід забезпечує репрезентативну глобальну оцінку, і постійно працюємо над розширенням охоплення цієї метрики.
- Наше загальне забезпечення дотримання правил щодо контенту як за допомогою фахівців із перевірки, так і з використанням технологій, поширюється на багато інших мов.
Поширеність фальшивих облікових записів у Facebook
Поширеність фальшивих облікових записів у Facebook – це оцінка частки у відсотках активних облікових записів Facebook, які виявилися фальшивими, на місяць. На відміну від поширеності контенту з порушеннями, поширеність фальшивих облікових записів передбачає, що вплив на користувачів є пропорційним кількості активних фальшивих облікових записів у Facebook, навіть якщо люди ніколи не бачать ці облікові записи та не взаємодіють із ними.
Щоб оцінити поширеність фальшивих облікових записів, ми робимо вибірку активних користувачів за місяць і позначаємо їх як фальшиві або ні. Наше визначення активних користувачів за місяць (MAU) – зареєстровані користувачі Facebook, які входили в обліковий запис і відвідували Facebook через наш сайт або з мобільного пристрою чи використовували додаток Messenger (а також є зареєстрованими користувачами Facebook) протягом останніх 30 днів станом на дату вимірювання.