建立模型並進行預測
此程序由我們的人工智慧團隊開始進行。他們先打造能夠執行任務的機器學習模型,例如辨認相片中的事物或是理解文字意涵。接著,我們負責大規模偵測和執行政策的誠信團隊,則會根據這些模型打造出更具體的模型,對用戶和內容進行預測。這些預測有助於我們執行政策, 舉例來說,人工智慧模型會預測某則內容是否為仇恨言論或血腥暴力內容。另一個系統(也就是我們的政策執行技術),則會判斷是否採取行動,例如刪除、降低觸及率或將內容傳送給人工審查團隊,進行更進一步的審查。
透過重複行為學習,並由人工進行驗證
剛開始打造執行內容政策的新技術時,我們訓練這項技術去尋找特定訊號。例如,某些技術會尋找相片中的裸露畫面,其他技術則學習理解文字意涵。一開始,新類型的技術可能不太確定某則內容是否違反我們的政策。
接著,就會由審查團隊做出最終決定,而我們的技術就能透過每一次的人工決策進行學習。長期下來,從數千次人工決策學習之後,這項技術就會變得更加準確。
我們的政策也會與時俱進,以因應我們產品、社會規範和語言的變遷。因此,對我們技術和審查團隊的訓練,都是漸進且反覆進行的過程。
偵測重複違規行為技術的強項在於可不斷偵測相同的內容,若有必要,重複幾百萬次也沒問題。若新的內容與其他違規內容相符或非常相似,我們的技術會就對其採取行動。這在處理網路瘋傳的錯誤資訊行銷活動、迷因以及其他能極速散播的內容時特別有用。