內容審查:運用技術和人工審查
當內容違反《社群守則》時,Meta 會有內容政策執行系統來應對。舉例而言,我們使用人工智慧和機器學習工具,以識別並移除大量的違規內容,且通常在用戶發現之前就完成相關操作。 若我們的技術有所遺漏或需要更多相關資訊,我們就會借助全球各地的數千名審查人員,協助執行《社群守則》。
當疑似違規內容移交給審查團隊,每個審查人員都會分配到一批貼文,以進行個別評估。有時若我們的技術未能事先偵測貼文是否違規,審查團隊僅是單純檢視貼文本身,以判斷該貼文是否違反政策,例如圖像是否包含成人裸露畫面。
而在其他情況下,主要關鍵則是在於背景資料。舉例而言,我們的技術可能無法確定貼文是否涉及霸凌行為;偵測霸凌行為通常需要額外的背景資料及瞭解各種語意細節,因為霸凌政策領域通常反映出人際關係的本質。在這種情況下,我們會將這則貼文傳送給專精於這類主題和語言專長的審查團隊執行進一步審查。此外,如有需要,他們也可向全球營運或內容政策團隊的特定領域專家呈報此貼文。
必要時,我們也會向審查人員提供有關遭檢舉內容的其他資訊。舉例而言,用戶可能使用以前用作種族歧視用語的字詞來發表仇恨言論,但另一名用戶也可能在不同語境中使用該字詞作為自我賦權的表達用語。在某些情況下,我們可能會向審查人員提供有關這些字詞的其他背景資料,協助他們妥善運用我們的政策,並決定貼文該予以保留或是撤除。