МЕТА-ДАНІ

МЕТА-ДАНІ
Політики
Стандарти спільнотиСтандарти розміщення реклами MetaІнші політикиЯк удосконалюється MetaВідповідний для віку контент

Функції
Наш підхід до небезпечних осіб та організаційНаш підхід до опіоїдної епідеміїНаш підхід до виборівНаш підхід до дезінформаціїНаш підхід до контенту, вартого публікуванняНаш підхід до оцінювання контенту в стрічці FacebookНаш підхід до пояснення рейтингуСпеціальні можливості в Meta

Інструменти дослідження
Бібліотека контенту й API бібліотеки контентуІнструменти бібліотеки рекламиІнші інструменти й набори даних для дослідження

Забезпечення дотримання правил
Виявлення порушеньУживання заходів

Управління
Інновації управлінняОгляд Наглядової радиЯк подати апеляцію до Наглядової радиСправи Наглядової радиРекомендації Наглядової радиСтворення Наглядової радиНаглядова рада: додаткові запитанняПіврічні новини компанії Meta про діяльність Наглядової радиВідстеження впливу Наглядової ради

Безпека
Усунення загрозЗагрози безпеціПовідомлення про загрозу

Звіти
Звіт про забезпечення дотримання Стандартів спільнотиІнтелектуальна власністьУрядові запити на надання даних користувачівОбмеження контенту відповідно до місцевого законодавстваПереривання доступу до ІнтернетуЗвіт про контент із великою кількістю переглядівНормативні звіти та інші звіти про прозорість інформації

Політики
Стандарти спільноти
Стандарти розміщення реклами Meta
Інші політики
Як удосконалюється Meta
Відповідний для віку контент
Функції
Наш підхід до небезпечних осіб та організацій
Наш підхід до опіоїдної епідемії
Наш підхід до виборів
Наш підхід до дезінформації
Наш підхід до контенту, вартого публікування
Наш підхід до оцінювання контенту в стрічці Facebook
Наш підхід до пояснення рейтингу
Спеціальні можливості в Meta
Інструменти дослідження
Бібліотека контенту й API бібліотеки контенту
Інструменти бібліотеки реклами
Інші інструменти й набори даних для дослідження
Забезпечення дотримання правил
Виявлення порушень
Уживання заходів
Управління
Інновації управління
Огляд Наглядової ради
Як подати апеляцію до Наглядової ради
Справи Наглядової ради
Рекомендації Наглядової ради
Створення Наглядової ради
Наглядова рада: додаткові запитання
Піврічні новини компанії Meta про діяльність Наглядової ради
Відстеження впливу Наглядової ради
Безпека
Усунення загроз
Загрози безпеці
Повідомлення про загрозу
Звіти
Звіт про забезпечення дотримання Стандартів спільноти
Інтелектуальна власність
Урядові запити на надання даних користувачів
Обмеження контенту відповідно до місцевого законодавства
Переривання доступу до Інтернету
Звіт про контент із великою кількістю переглядів
Нормативні звіти та інші звіти про прозорість інформації
Політики
Стандарти спільноти
Стандарти розміщення реклами Meta
Інші політики
Як удосконалюється Meta
Відповідний для віку контент
Функції
Наш підхід до небезпечних осіб та організацій
Наш підхід до опіоїдної епідемії
Наш підхід до виборів
Наш підхід до дезінформації
Наш підхід до контенту, вартого публікування
Наш підхід до оцінювання контенту в стрічці Facebook
Наш підхід до пояснення рейтингу
Спеціальні можливості в Meta
Інструменти дослідження
Бібліотека контенту й API бібліотеки контенту
Інструменти бібліотеки реклами
Інші інструменти й набори даних для дослідження
Безпека
Усунення загроз
Загрози безпеці
Повідомлення про загрозу
Звіти
Звіт про забезпечення дотримання Стандартів спільноти
Інтелектуальна власність
Урядові запити на надання даних користувачів
Обмеження контенту відповідно до місцевого законодавства
Переривання доступу до Інтернету
Звіт про контент із великою кількістю переглядів
Нормативні звіти та інші звіти про прозорість інформації
Забезпечення дотримання правил
Виявлення порушень
Уживання заходів
Управління
Інновації управління
Огляд Наглядової ради
Як подати апеляцію до Наглядової ради
Справи Наглядової ради
Рекомендації Наглядової ради
Створення Наглядової ради
Наглядова рада: додаткові запитання
Піврічні новини компанії Meta про діяльність Наглядової ради
Відстеження впливу Наглядової ради
Політики
Стандарти спільноти
Стандарти розміщення реклами Meta
Інші політики
Як удосконалюється Meta
Відповідний для віку контент
Функції
Наш підхід до небезпечних осіб та організацій
Наш підхід до опіоїдної епідемії
Наш підхід до виборів
Наш підхід до дезінформації
Наш підхід до контенту, вартого публікування
Наш підхід до оцінювання контенту в стрічці Facebook
Наш підхід до пояснення рейтингу
Спеціальні можливості в Meta
Інструменти дослідження
Бібліотека контенту й API бібліотеки контенту
Інструменти бібліотеки реклами
Інші інструменти й набори даних для дослідження
Забезпечення дотримання правил
Виявлення порушень
Уживання заходів
Управління
Інновації управління
Огляд Наглядової ради
Як подати апеляцію до Наглядової ради
Справи Наглядової ради
Рекомендації Наглядової ради
Створення Наглядової ради
Наглядова рада: додаткові запитання
Піврічні новини компанії Meta про діяльність Наглядової ради
Відстеження впливу Наглядової ради
Безпека
Усунення загроз
Загрози безпеці
Повідомлення про загрозу
Звіти
Звіт про забезпечення дотримання Стандартів спільноти
Інтелектуальна власність
Урядові запити на надання даних користувачів
Обмеження контенту відповідно до місцевого законодавства
Переривання доступу до Інтернету
Звіт про контент із великою кількістю переглядів
Нормативні звіти та інші звіти про прозорість інформації
Українська
Політика конфіденційностіУмови надання послугФайли cookie
Головна
Правила
Покращення
Виправлення та зміни

Виправлення та зміни

ОНОВЛЕНО 2 жовт. 2024 р.
Ми детально описуємо всі конкретні зміни, виявлені в межах наших методів забезпечення якості інформації. Ми оновимо цю інформацію відповідно до наших процесів вимірювання.

8/2024. Усунено помилку у вимірюванні поширеності фальшивих облікових записів у Facebook
Ми виявили помилку в запиті, який використовувався для розрахунку поширеності фальшивих облікових записів у Facebook у першому кварталі 2024 року, і виправили її. У результаті ми дещо завищили оцінку поширеності у першому кварталі 2024 року.

5/2024 Усунено помилку в методології створення вибірки для визначення поширеності у Facebook та Instagram
Поширеність контенту, що порушує правила, оцінюється на основі зразків переглядів контенту у Facebook або Instagram. Ми виправили помилку, через яку вибирався невеликий обсяг нерелевантних даних, яка була усунена й не призвела до значних змін поширеності.

11/2023. Оновлено розрахунки частки попередньо перевіреного контенту у Facebook та Instagram Фішинг більше не є частиною спаму
Оскільки ми оновили методологію, частка попередньо перевіреного контенту збільшилася для кількох типів порушень. До цієї зміни, коли користувачі скаржилися на допис, ми автоматично вважали, що користувач скаржиться і на коментарі під дописом. З третього кварталу 2023 року ми змінили методологію: тепер коментарі вважаються такими, на які надійшли скарги користувачів, лише в тому випадку, якщо користувачі надіслали скарги безпосередньо на них.
Крім того, з третього кварталу 2023 року метрики фішингу більше не враховуватимуться як частина спаму у Звітах із дотримання Стандартів спільноти, що відповідає попередній зміні політики Meta.

8/2023. Оновлено ​​методологію роботи з фальшивими обліковими записами у Facebook та Instagram
Відповідно до Закону Європейського Союзу про цифрові послуги (Digital Services Act, DSA), апеляції мають бути доступні користувачам протягом 6 місяців після вживання заходів із забезпечення дотримання правил, що збільшує термін для подання апеляції. Це означає, що для повноцінного представлення досвіду взаємодії користувача в метриках для фальшивих облікових записів ми оновили спосіб підрахунку для фальшивих облікових записів відповідно до цього нового періоду часу. Збільшення кількості видалень фальшивих облікових записів, яке ми спостерігали між першим і другим кварталом, пов’язане з цією зміною в підрахунку.

2/2023. Оновлено методологію щодо частки попередньо перевіреного контенту у Facebook та Instagram
У межах нашої роботи з постійного вдосконалення метрик, представлених у цьому звіті, починаючи з четвертого кварталу 2022 року, ми оновили нашу методологію щодо частки попередньо перевіреного контенту. Тепер заходи вважаються «проактивними» тільки в тому випадку, якщо ми виявляємо й уживаємо заходів щодо контенту, який порушує правила, до того, як на нього поскаржаться користувачі. У старій методології заходи вважалися «проактивними», якщо попереднє виявлення відбувалося першим у сценаріях, у яких були обидві причини виявлення (тобто контент був одночасно виявлений заздалегідь, а також на нього поскаржилися користувачі). Нова методологія враховує існування скарг користувачів і тепер вважає ці випадки «реактивними», а не «проактивними». Хоча ця зміна суттєво не змінює метрики, вона сприяла незначним квартальним відмінностям у метриці частки попередньо перевіреного контенту. У таблиці в цьому документі представлено порівняння метрик, виміряних як за старою, так і новою методологією за звітні періоди за третій та четвертий квартали 2022 року.

8/2022. Оновлено ​​методологію роботи з контентом, щодо якого подано апеляцію, у Facebook та Instagram
Починаючи з першого кварталу 2020 року, через тимчасове скорочення наших можливостей перевірки внаслідок COVID-19, ми не завжди могли пропонувати людям можливість подати апеляцію, але все-таки забезпечували можливість повідомляти нам, якщо вони не згодні з нашим рішенням. Як відображено в наших даних за період із першого кварталу 2020 року до першого кварталу 2022 року, ми не враховували ці випадки у визначенні метрик апеляцій, оскільки вони надають цінні відгуки користувачів, але не кваліфікуються як апеляція без можливості перевірки. За останній рік ми вдосконалювали й розвивали можливості подання апеляцій, і оскільки наша діяльність стабілізувалася, зараз ми переглядаємо багато з таких випадків.
У межах нашої роботи з постійного вдосконалення метрик, представлених у цьому звіті, починаючи з другого кварталу 2022 року, ми оновили методологію обробки апеляцій, щоб враховувати всі випадки, коли контент надсилається на додаткову перевірку, зокрема коли користувачі повідомляють нам, що не згодні з нашим рішенням. Ми, як і раніше, виключаємо випадки, коли контент не надсилається на додаткову перевірку, навіть якщо люди повідомили нам, що не згодні з нашим рішенням, як у багатьох випадках зі спамом.

2/2022. Контент, пов’язаний із тероризмом, щодо якого вжито заходів, подано апеляцію або який було відновлено, а також частка попередньо перевіреного контенту у Facebook та Instagram
У четвертому кварталі ми виявили та змінили категорії для заходів, яких ми почали вживати щодо терористичного контенту у Facebook та Instagram. Це вплинуло на цифри, які ми раніше публікували для контенту, щодо якого вжито заходів, подано апеляцію або який було відновлено, а також частки попередньо перевіреного контенту за третій квартал 2021 року, і ми відповідним чином скоригували цифри.

11/2021. Контент, пов’язаний із самогубством і самоушкодженням, щодо якого вжито заходів, в Instagram та відновлений контент, пов’язаний із зображенням оголеного тіла дитини й сексуальною експлуатацією, у Facebook
У другому кварталі 2020 року було виявлено, що частина контенту, щодо якого ми вжили заходів через порушення нашої політики щодо зображення сцен насильства, порушувала нашу конкретну політику щодо самогубства й самоушкодження. Ми відповідним чином змінили категорію для цього контенту, що вплинуло на цифри, які ми раніше поширювали для контенту, щодо якого вжито заходів, в Instagram у другому кварталі 2020 року. Крім того, ми внесли невеликі коригування до показників відновленого контенту, пов’язаного із зображенням оголеного тіла дитини й сексуальною експлуатацією, в Instagram у третьому кварталі 2020 року через те, що раніше елементи були віднесені до неправильної категорії. Ми продовжимо оновлювати історичні цифри в міру оновлення нашої політики й подальшого вдосконалення наших систем та підрахунку метрик.

8/2021. Контент, пов’язаний зі спамом, самогубством і самоушкодженням, щодо якого вжито заходів, частка попередньо перевіреного контенту, пов’язаного із цькуванням та переслідуванням і самогубством та самоушкодженням, і відновлений контент, пов’язаний із зображенням оголеного тіла дорослих та сцен сексуального характеру
У цьому кварталі ми внесли уточнення до наших метрик щодо спаму, самогубства й самоушкодження, що призвело до мінімальних змін порівняно з раніше опублікованими цифрами. Ми також внесли корективи до методології, які призвели до деяких невеликих змін у частці попередньо перевіреного контенту щодо цькування та переслідування, а також самогубства й самоушкодження. Зрештою, ми змінили категорію для деякого контенту, пов’язаного зі спамом, на категорію «Зображення оголеного тіла дорослих» та «Зображення сцен сексуального характеру», що вплинуло на метрики відновленого контенту.

5/2021. Контент стосовно самогубства й самоушкодження, щодо якого вжито заходів, у Facebook
У 2020 році було виявлено, що частина контенту, щодо якого ми вжили заходів через порушення нашої політики щодо зображення сцен насильства, порушувала нашу політику щодо самогубства й самоушкодження. Ми відповідним чином змінили категорію для цього контенту, що вплинуло на цифри, які ми раніше поширювали для контенту, щодо якого вжито заходів у Facebook у 2020 році.

2/2021. Відновлений контент, пов’язаний із зображення оголеного тіла дорослих та сцен сексуального характеру, у Facebook, поширеність і контент, пов’язаний із зображенням сцен насильства, щодо якого вжито заходів у Facebook, контент, пов’язаний із самогубством і самоушкодженням, щодо якого вжито заходів, у Facebook та відновлений контент в Instagram
У четвертому кварталі ми внесли пояснення щодо деяких класів зображень для нашої політики щодо зображення оголеного тіла дорослих і сцен сексуального характеру у Facebook. Ми відновили частину контенту, щодо якого раніше було вжито заходів, відповідно до найновішої політики, що вплинуло на цифри щодо відновленого контенту, які раніше було опубліковано для відновленого контенту у Facebook у третьому кварталі.
Раніше у Звіті з дотримання Стандартів спільноти за листопад 2020 року повідомлялося про поширеність контенту, пов’язаного із зображенням сцен насильства, у Facebook, яка становила від 0,05 до 0,06% переглядів. У звіті за лютий 2021 року ми оновили поширеність контенту, пов’язаного із зображенням сцен насильства, приблизно до 0,07% переглядів у третьому кварталі.
У другому кварталі після того, як на початку вересня ми відновили деякі можливості ручної перевірки, пізніше було виявлено, що частина контенту, щодо якого ми вжили заходів через порушення нашої політики щодо зображення сцен насильства, порушувала нашу конкретну політику щодо самогубства й самоушкодження. Ми відповідним чином змінили категорію для цього контенту, що вплинуло на цифри, які ми раніше поширювали для контенту, щодо якого вжито заходів, у Facebook у третьому кварталі.
Крім того, ми скоригували показники відновленого контенту в Instagram за перший і другий квартали, щоб урахувати раніше незареєстровані коментарі, які ми відновили. Це призвело до мінімальних змін у більшості розділів політики Instagram, і ми відповідним чином скоригували раніше надані дані. Ми продовжимо оновлювати історичні цифри в міру оновлення нашої політики й подальшого вдосконалення наших систем та підрахунку метрик.

11/2020. Оновлено коригування для контенту, щодо якого вжито заходів, частки попередньо перевіреного контенту, контенту, на який подали апеляції користувачі, і відновленого контенту у Facebook та Instagram
У третьому кварталі ми запровадили оновлення, яке змінило категорію для жорстокого й неделікатного контенту, щодо якого було раніше вжито заходів, щоб він більше не вважався мовою ворожнечі. Це оновлення вплинуло на цифри, які ми раніше публікували для контенту, щодо якого вжито заходів, подано апеляцію або який було відновлено, а також частки попередньо перевіреного контенту за четвертий квартал 2019 року, перший квартал 2020 року й другий квартал 2020 року, і ми відповідним чином скоригували цифри. Ми також оновили нашу політику, щоб видалити більше типів контенту, що зображує самогубство й самоушкодження, і змінили категорії для деякого контенту, пов’язаного із зображенням сцен насильства, який ми раніше позначили як тривожний у другому кварталі.
Крім того, ми скоригували показники відновленого контенту в Instagram за перший і другий квартали, щоб урахувати раніше незареєстровані коментарі, які ми відновили, а також проблему з нашим джерелом даних для звіту за серпень 2020 року. Це призвело до мінімальних змін у більшості розділів політики у Facebook та Instagram, і ми відповідним чином коригуємо раніше надані дані. Ми продовжимо оновлювати історичні цифри в міру оновлення нашої політики й подальшого вдосконалення наших систем та підрахунку метрик.

8/2020. Контент, пов’язаний із зображенням сцен насильства, щодо якого вжито заходів, в Instagram
У першому кварталі 2020 року ми виявили й виправили проблему з урахуванням заходів, ужитих нашою технологією проактивного виявлення контенту, пов’язаного із зображенням сцен насильства, в Instagram, а в другому кварталі ми змогли повністю оновити наші системи звітності. Для контенту, пов’язаного із зображенням сцен насильства, щодо якого вжито заходів, в Instagram, у першому кварталі 2020 року у звіті за травень 2020 року було вказано 2,3 мільйона одиниць контенту, а у звіті за серпень 2020 року цей показник було оновлено до 2,8 мільйона.

5/2020. Оновлено коригування для контенту, щодо якого вжито заходів, контенту, щодо якого було попередньо вжито заходів, контенту, на який подали апеляції користувачі, і відновленого контенту у Facebook та Instagram
На момент нашого останнього оновлення в листопаді 2019 року ми внесли низку покращень у наші системи та підрахунок метрик. Ці покращення дали нам змогу оцінити найбільші наслідки, одночасно коригуючи наші метрики на той момент. Після звіту за листопад 2019 року ми допрацювали ці покращення.
Завдяки цій роботі в п’ятому випуску Звіту з дотримання Стандартів спільноти за травень 2020 року ми коригуємо раніше опубліковані дані. Це мало мінімальний вплив на більшість категорій у 2019 році, а будь-які коригування даних призводять до зміни показника контенту, щодо якого вжито заходів, не більше ніж на 3%. Ми продовжимо оновлювати історичні цифри, змінюючи категорії для раніше видаленого контенту для різних порушень на основі поточних протоколів і протоколів, що змінюються, а також продовжимо вдосконалювати наші системи та підрахунок метрик.

11/2019. Контент, щодо якого вжито заходів, частка попередньо перевіреного контенту для спаму у Facebook
У Meta різні системи обробляють різні типи контенту, щоб підвищити ефективність та надійність мільярдів заходів, що вживаються щокварталу. Одна з цих систем, яка переважно обробляє контент із посиланнями, не реєструвала наші заходи для певного контенту, який був видалений, якщо ніхто не намагався переглянути його протягом семи днів із моменту його створення, навіть якщо цей контент був видалений із платформи.
Хоча ми знаємо, що це занижує фактичну кількість контенту, який містить зовнішні посилання, що переважно впливає на наші метрики щодо спаму для контенту, що містить шкідливі посилання, ми не можемо ретроспективно оцінити це заниження. Так, цифри, відображені наразі у Звіті про дотримання Стандартів спільноти, є мінімальною оцінкою як кількості контенту, щодо якого вжито заходів, так і частки попередньо перевіреного контенту за відповідний період. Оновлення щодо цієї проблеми будуть публікуватися тут у міру доступності.

11/2019. Контент, щодо якого вжито заходів, контент, щодо якого було попередньо вжито заходів, контент, на який подали апеляції користувачі, і відновлений контент у Facebook
Коли в листопаді 2018 року ми представили другий випуск Звіту про дотримання Стандартів спільноти, ми оновили метод підрахунку заходів, яких ми вживаємо щодо контенту. Ми зробили це, щоб метрики краще відображали те, що відбувається у Facebook, коли ми вживаємо заходів щодо контенту, який порушує наші Стандарти спільноти. Наприклад, якщо ми виявимо, що повідомлення, яке містить одну світлину, порушує наші політики, ми хочемо, щоб наша метрика відображала те, що ми вжили заходів щодо одного фрагмента контенту, а не два окремі заходи для видалення світлини й допису.
Однак у липні 2019 року ми виявили, що системи, які реєструють і підраховують ці заходи, неправильно реєструють ужиті заходи. Багато в чому це було пов’язано з необхідністю підраховувати численні дії, що відбуваються протягом кількох мілісекунд, і не пропускати або не перебільшувати жоден із вжитих окремих заходів. Оскільки наша система реєстрації для цілей вимірювання відрізняється від нашої діяльності щодо забезпечення дотримання наших політик, проблема з підрахунком не вплинула на те, як ми забезпечували дотримання наших політик або як ми інформували людей про ці заходи; це вплинуло лише те що, як ми підраховували вжиті заходи. Щойно ми виявили цю проблему, ми почали працювати над її усуненням, виявленням будь-яких раніше опублікованих неправильних метрик і впровадженням надійнішого набору перевірок у наших процесах, щоб забезпечити точність нашого підрахунку. Загалом ми виявили, що ця проблема вплинула на раніше надані нами цифри для контенту, щодо якого вжито заходів, частки попередньо перевіреного контенту, контенту, на який користувачі подали апеляції, і відновленого контенту за третій квартал 2018 року, четвертий квартал 2018 року та перший квартал 2019 року.
Четвертий випуск Звіту про дотримання Стандартів спільноти включає правильні метрики для відповідних кварталів, а в наведеній вище таблиці представлені раніше надані метрики та їхні виправлення.