政策執行技術的運作方式
上次更新日期 2024年11月12日
建立模型並進行預測
此程序由我們的人工智慧團隊開始進行。他們先打造能夠執行任務的機器學習模型,例如辨認相片中的事物或是理解文字意涵。接著,我們負責大規模偵測和執行政策的誠信團隊,則會根據這些模型打造出更具體的模型,對用戶和內容進行預測。這些預測有助於我們執行政策,
舉例來說,人工智慧模型會預測某則內容是否為仇恨言論或血腥暴力內容。另一個系統(也就是我們的政策執行技術),則會判斷是否採取行動,例如刪除、降低觸及率或將內容傳送給人工審查團隊,進行更進一步的審查。
透過重複行為學習,並由人工進行驗證
剛開始打造執行內容政策的新技術時,我們訓練這項技術去尋找特定訊號。例如,某些技術會尋找相片中的裸露畫面,其他技術則學習理解文字意涵。一開始,新類型的技術可能不太確定某則內容是否違反我們的政策。
接著,就會由審查團隊做出最終決定,而我們的技術就能透過每一次的人工決策進行學習。長期下來,從數千次人工決策學習之後,這項技術就會變得更加準確。
我們的政策也會與時俱進,以因應我們產品、社會規範和語言的變遷。因此,對我們技術和審查團隊的訓練,都是漸進且反覆進行的過程。
偵測重複違規行為技術的強項在於可不斷偵測相同的內容,若有必要,重複幾百萬次也沒問題。若新的內容與其他違規內容相符或非常相似,我們的技術會就對其採取行動。這在處理網路瘋傳的錯誤資訊行銷活動、迷因以及其他能極速散播的內容時特別有用。
找出細微的區別
技術能夠一再找出並移除相同的內容,但要讓機器理解字詞選擇的細微差異,或微小的差異可能使上下文涵義截然不同,則是相當大的挑戰。
第一張圖像是造成誤導內容的原始圖檔,包含關於大眾健康安全的錯誤資訊。
第二張圖像是第一張的螢幕截圖,在圖像上方出現電腦的功能表列。
最後,第三張圖像看似與前兩張極度相似,但在文字上改動了兩個小地方,就使標題變成正確的訊息,而不再是不實資訊。
人類毫不費力就能理解其中區別,但技術卻很難正確判斷。不論太過或不及,都有犯錯的風險。如果技術在審查時過於嚴格,可能會將上百萬則未違規的貼文移除;但若技術不夠嚴格,則會將包含功能表列的螢幕截圖誤判為與原圖不同,而未能對該內容執行處置。
因此,我們投入大量時間來因應這項挑戰。在過去數年間,我們挹注許多投資來協助我們的技術發展,使其偵測內容中細微差別的能力更加提升。隨著技術持續學習精進,審查也能夠日益精確。