Эта метрика показывает долю контента или аккаунтов, которые мы обнаружили и в отношении которых приняли меры ещё до поступления жалоб от пользователей. Мы используем эту метрику как индикатор эффективности выявления нарушений.
Мы активно развиваем основной метод обнаружения — технологию машинного обучения.
Мы сочетаем машинное обучение с работой специально обученных специалистов, проверяющих контент и принимающих меры при обнаружении нарушения правил сообщества.
В случае с отдельными категориями нарушений мы эффективно и своевременно реагируем на контент, потенциально нарушающий правила сообщества. Это значит, что мы находим подавляющую часть проблемного контента и принимаем меры по отношению к нему, прежде чем на него пожалуются пользователи. Результаты значительно улучшились после внедрения технологии машинного обучения, которая автоматически идентифицирует контент, потенциально нарушающий наши нормы.
Это чрезвычайно перспективная технология, однако потребуются годы, прежде чем она сможет показать отличные результаты для всех категорий нарушений. В частности, возможности этой технологии всё ещё ограничены в плане распознавания контекста и смысловых нюансов, особенно для текстового контента. Это создает дополнительные трудности для оперативного выявления некоторых нарушений.
Показатели могут расти и снижаться в зависимости от внешних факторов. Примером может служить кибератака, в ходе которой спамеры делают 10 миллионов публикаций с одним и тем же вредоносным URL-адресом. Если мы обнаружим вредоносный URL-адрес до того, как пользователь сообщит нам о нем, доля предварительно проверенного контента увеличится во время кибератаки и снизится после нее — даже если наша технология обнаружения не изменится за этот период. Этот показатель также может увеличиваться или уменьшаться по мере изменения наших процессов и инструментов. Например, он возрастет, если наша технология обнаружения улучшится, но снизится, если мы усовершенствуем инструмент обратной связи для пользователей и будем меньше полагаться на проактивное обнаружение.
Поскольку этот показатель зависит от объема контента, в отношении которого приняты меры, к нему во многом применимы те же подходы. Доля предварительно проверенного контента не отражает, сколько времени затрачено на обнаружение контента, нарушающего правила, или сколько раз его просмотрели до выявления. Кроме того, эта метрика не показывает, сколько нарушений нам не удалось обнаружить и сколько раз этот контент был просмотрен. И хотя процент предварительно обнаруженного контента может быть очень высоким (в некоторых категориях до 99 %), даже минимальный остаточный процент может оказать значительное влияние на людей.
Расчет доли предварительно проверенного контента
Этот процент рассчитывается путем деления количества единиц контента, которые мы обнаружили и в отношении которых приняли меры до поступления жалоб от пользователей Facebook или Instagram, на общее количество единиц контента, в отношении которых были приняты меры.
В случае с фальшивыми аккаунтами Facebook мы рассчитываем эту метрику как процентную долю заблокированных фальшивых аккаунтов, которые мы нашли и в отношении которых приняли меры до того, как пользователи сообщили о них нам. Эта доля рассчитывается путем деления количества заблокированных аккаунтов, которые мы обнаружили и в отношении которых приняли меры до поступления жалоб, на общее количество заблокированных фальшивых аккаунтов.
Примечания
Мы вычисляем долю предварительно проверенного контента путем строгой атрибуции жалоб пользователей на контент. Например, если пользователь подает жалобу на Страницу и при проверке этой Страницы мы выявляем на ней контент, нарушающий правила, и принимаем соответствующие меры, считается, что мы заблаговременно приняли меры в его отношении (при отсутствии отдельных жалоб на этот контент).