Meta 如何排定內容審查順序
上次更新日期 2024年11月12日
但有時則較難判斷,可能是貼文的觀點不明確、使用的語言特別複雜,或是圖像含意須視背景資訊而定。針對這些案例,我們會進一步執行人工審查。
排定人工審查順序的指標
我們依照 3 大指標,排定審查人員應優先審查的內容:
嚴重性
內容在網路及現實世界造成傷害的可能性多大?
傳播力
內容分享的速度有多快?
違規可能性
問題內容確實違反政策的可能性多大?
人工審查團隊協助技術進步
我們人工審查團隊的成員在特定的政策領域和地區運用各自的專業能力,做出困難且縝密的判定。他們每做出一個決定,我們便使用該資訊訓練我們的技術。長期下來,隨著審查人員做出數百萬個決定,我們的技術也愈臻完善,得以移除更多違規內容。
協助審查人員做出正確決定
技術能協助審查人員發揮所長
和多數機器學習模式一樣,隨著收到的違規內容範例越來越多,我們的技術也不斷進步。這表示人工審查團隊能更專注於處理嚴重性高、傳播速度快、具有細微差異且更新型、複雜的內容,而判定這類內容正是審查人員更勝於技術的優勢。
關於內容審查優先順序的常見問題
政策執行的優先順序如何與時俱進?
過去,人工審查團隊絕大多數的時間都花在審查用戶檢舉的內容,這表示審查人員經常花費過多的時間,處理嚴重性低或明顯無違規的內容,而沒有足夠的時間處理最嚴重且最可能造成傷害的內容。這也表示,許多人工審查的判定對改善政策執行技術並沒有多大幫助。
因此,我們目前排定順序的作法解決了這些問題,以優先審查最可能造成傷害的內容,並快速提升我們的技術。
用戶檢舉是否皆由人工審查團隊進行審查?
不一定,人工審查團隊和審查技術皆會審查用戶檢舉。若我們的技術能分析內容,即會自動決定是否針對問題內容採取行動。
如何確保人工審查的決定不會造成技術判定的偏差?
為處理與 Meta 技術部署人工智慧有關的公平性和包容性疑慮,我們建立了負責任人工智慧團隊,由倫理學家、社會學家和政治學家、政策專家、人工智慧研究人員及工程師等多種領域的人員組成專責團隊。該團隊的整體目標在於擬定守則、開發工具,以及制定處理人工智慧責任相關議題的程序,並確保在 Meta 各處皆可輕鬆取得此類系統性資源。