Meta 如何訓練技術

上次更新日期 2022年1月19日
有時候人類可以一眼看懂的內容,對技術來說卻是不甚清楚。為了保護用戶的安全,Meta 需要訓練人工智能學會如何偵測違規的帖子。
舉例來說,下列內容結合了文字和圖像。其中 2 張圖像的本質是好意;而另外 2 張則潛藏惡意。
how we train
如果沒有適當的訓練,多數的人工智能都無法判斷出這其中的差異,只會讀取文字並判斷字面上的意義,或是查看圖像並判斷圖像主體通常代表的意義。反之,人類會本能地將文字和圖像結合來理解整體內容。
我們解決這個問題的其中一種方式,就是訓練我們的技術要先檢視所有的元素,然後才去判斷這個帖子實際代表的意義。這會大有幫助,幫助人工智能以更精準的方式,偵測出人類看到相同帖子之後所理解到的內容。
我們也會運用系統來引導人工智能直接從數百萬則現有內容當中學習,並幫助挑選能夠達成我們目標的訓練資料。這種做法有別於仰賴固定訓練資料的一般人工智能系統。這種方式可以幫助我們進一步保護用戶免受仇恨言論和煽動暴力的內容所影響。
雖然我們還有路要走,但是這種訓練可以幫助我們的技術持續進步,從而了解多模態內容的真實含義。