Meta 安排內容審查優先順序的方式
上次更新日期 2024年11月12日
但有些時候,這會變得比較棘手。例如,帖子所表達的情緒不夠清晰、使用的語言特別複雜,或是其中的圖像需要參考更多背景資訊才能予以判斷。如果遇到這些情況,我們就會將內容交由真人作出進一步審查。
優先轉交人工審查的考慮因素
在判斷哪些內容應該優先交由人工審查團隊時,我們會考慮 3 個主要因素:
嚴重程度
這則內容會導致網上或實際傷害的機率有多高?
傳播力
用戶分享這則內容的速度有多快?
違規機率
這則內容實際違反我們政策規定的機率有多高?
人工審查團隊有助我們的技術作出改善
我們的人工審查團隊可以利用他們對特定政策領域和當地背景的專業知識,來作出一些比較困難且存在細微差異的判斷。每當審查人員作出決定後,我們就會利用這些資訊來訓練自家技術。隨著人工審查團隊做出數百萬次的決定後,我們的技術會變得越來越精準,並可助我們移除更多違規的內容。
幫助審查人員作出正確的判斷
技術可助人工審查團隊專注於自己最擅長的工作
與許多其他機器學習模型一樣,我們的技術獲得越來越多違規內容範例後,便會隨著時間變得越來越精明。即是說,人工審查團隊可以將精力投放在更嚴重、快速傳播、存在細微差異、新穎且複雜的內容上;在面對這些內容時,審查人員往往能夠作出比技術更為準確的判決。
有關內容審查優先順序的常見問題
隨著時間的過去,內容政策執行的優先順序發生了什麼改變?
過去,人工審查團隊多數的時間都是用來審查用戶所舉報的內容。這使他們需要花費大量時間來處理嚴重程度較低,或是明顯沒有違規的內容,而沒有足夠的時間來處理很有可能會造成傷害的高風險內容。這樣,許多由審查人員作出的判斷便無法用來改善我們的政策執行技術。
我們目前優先處理這些問題的策略,可以讓我們優先審查最有可能造成傷害的內容,同時加速改善自家技術。
人工審查團隊會審查所有由用戶舉報的內容嗎?
不一定。人工審查團隊和技術都會審查用戶所舉報的內容。若我們的技術能夠分析該則內容,便會自動針對它採取(或不採取)相應行動。
如何確保人工審查團隊所作出的判斷不會將個人偏見引入技術當中?
我們特地成立了「負責任人工智能」團隊,廣邀倫理學、社會學與政治學學者、政策專家,以及人工智能研究人員和工程師組成了跨專業團隊,致力處理 Meta 技術中採用人工智能所涉及的公平性與包容性問題。此團隊的整體目標是制定指導方針、工具和流程來解決人工智能責任問題,並確保這些系統資源可以在 Meta 上廣泛運用。