Meta 如何投資研發技術
上次更新日期 2022年1月19日
以下是我們投資研發人工智能技術的項目,藉此改善我們的工具理解內容的能力:
- 我們開發了一款名為 Linformer 的新架構,以分析 Facebook 和 Instagram 上來自世界各個地區的內容。
- 我們建立了一款名為 Reinforced Integrity Optimizer 的系統,用以學習網上訊號,進而改善我們偵測仇恨言論的能力。
- 我們改善了一款名為 SimSearchNet 的圖像配對工具,用以幫助我們的技術偵測內容中的細微差異,從而針對錯誤資訊採取行動。
- 我們併入使用 XLM 和 XLM-R 語言工具來幫助我們建立分類器,以便理解不同語言中的相同概念。這就表示當我們的技術可以從某個語言中學習經驗,就能夠在其他語言中改善效能,這對於互聯網上較為少見的語言來說特別有用。
- 我們建立了一個全實體理解系統以分析內容,幫助判斷其中是否含有仇恨言論。
以開放協作的方式領導人工智能行業不斷進步
有害內容所帶來的挑戰大幅影響了整個科技業和我們的社會,所以我們才要開放自家技術的原始碼,讓大眾都能夠使用。我們相信以開放和協作的方式與人工智能社群互動有助於促進研究和發展,創造出偵測與預防有害內容的新方法,進而保護用戶的安全。
以下是我們近幾年開放原始碼的技術,另外包括 2 場我們主導的業界競賽:
XLM-R
XLM-R 是一種以單一語言進行訓練的機器學習模型,不需要額外的訓練資料就能套用至其他的語言。隨著用戶在 Meta 技術上以超過 160 種語言發佈內容,XLM-R 可以讓我們將一個模型套用於多種語言,而不用針對每一種語言設計獨立的模型。這個工具可以幫助我們在各式各樣的語言中,更輕鬆地辨識仇恨言論和其他違規內容,並且可以一次針對多種語言推出產品。我們開放了這些模型的原始碼和程式碼,讓研究社群改善其多語言模型的效能。
目標:無論用戶使用哪一種語言,都能在我們的各大平台上獲得最佳體驗。Linformer
Linformer 是一款轉型架構,能夠分析 Facebook 和 Instagram 上來自世界各個地區的數十億則內容。Linformer 有助偵測仇恨言論和煽動暴力的內容。我們發表了研究成果,並開放 Linformer 的原始碼,讓其他的研究人員和工程師可以改善他們自己的模型。
目標:為了建立一個可以從文字、圖像和言論中學習經驗的新型人工智能模型,並且有效地偵測仇恨言論、人口販賣、欺凌以及其他形式的有害內容。深度偽造偵測挑戰
我們與 Microsoft、Partnership on AI 和多間大學的學者聯合舉辦了競賽,希望能夠研發出更厲害的技術來偵測有心人士使用人工智能竄改影片以誤導觀眾的內容。為協助舉辦深度偽造偵測挑戰,我們安排了業界缺乏的真實資料集,藉此幫助參賽者偵測深度偽造內容。
目標:鼓勵業界發明新的偵測技術,藉此預防有心人士操弄人工智能來誤導民眾。仇恨迷因挑戰
我們與 Getty Images 和 DrivenData 聯手舉辦了競賽,希望能夠加快研究如何偵測結合圖像和文字的仇恨言論。為協助舉辦仇恨迷因挑戰,我們以超過 10,000 個範例建立了不重複的資料集,方便研究人員用於研發作業。
目標:鼓勵業界發明新的策略和方法來偵測多模態的仇恨言論。