審查團隊的運作方式

上次更新日期 2024年11月12日
Meta 經常會收到大家提問我們內容審查流程的運作方式、我們執行政策的方式,以及我們的審查團隊是否會在全球執行政策。本文會介紹我們審查團隊的工作內容,以及說明他們如何運用我們的技術來完成工作。
內容審查:使用技術審查和人工審查的時機
Meta 已制定內容政策執行系統,來應對違反《社群守則》的情況。舉例來說,我們會使用人工智能和機器學習工具來幫助我們辨識和移除大量的違規內容,通常在其他用戶看到之前就將之移除。
如果遇到我們的技術缺乏資訊或需要更多參考意見的情況,我們就會仰賴世界各地數千名的審查人員來執行我們的《社群守則》。
當疑似違規內容轉交至我們的審查團隊後,每位審查人員都獲分配一連串帖子以作個別評估。有時候,這項審查只是單純看看帖子,以判斷該帖子有否違反我們的政策,例如包含成人裸露畫面的圖像,以防我們的技術未有先偵測到這類違規內容。
在其他情況下,重點則在於背景資訊。舉例來說,我們的技術可能不確定某則帖子是否含有欺凌成分,因為這個政策領域經常是反映出人際關係的本質,需要配合更多的背景資訊和細節來判斷。在這種情況下,我們會將帖子轉交給具備合適主題和語言專業知識的審查團隊,以作進一步審查。如有需要,審查團隊亦可將此帖子上報給全球營運或內容政策團隊的相關主題專家。
在有需要的情況下,我們也會就遭舉報的內容向審查人員提供其他資訊。舉例來說,某些字詞在歷史上具有種族毀謗含義,如果從某些人口中說出這些字詞,就會是仇恨言論;但如果換了情境,從另一些人口中說出卻是一種自我賦權的形式。在某些情況下,我們可能會針對這類字詞提供更多的背景資訊以供審查人員參考,幫助他們執行我們的政策,以及判斷帖子應該保留還是撤除。