Meta 投資了哪些技術
上次更新日期 2022年1月19日
以下是我們針對人工智慧技術所做的部分投資,以提升我們工具理解內容的成效:
- 我們開發出名為 Linformer 的架構,用以分析 Facebook 和 Instagram 上來自全球不同區域的內容。
- 我們打造出名為 Reinforced Integrity Optimizer 的新系統,此系統會透過網路訊號學習,以提升我們偵測仇恨言論的能力。
- 我們改善了名為 SimSearchNet 的圖像比對工具,能協助我們的技術偵測內容中的細微差別,以便我們針對錯誤資訊執行處置。
- 我們納入名為 XLM 和 XLM-R 的語言工具,協助我們打造能瞭解多種語言中相同概念的分類工具。這表示,當我們的技術能在一種語言中學習,便也能提升在其他語言的成效,這在處理網路上較不常見的語言時特別有用。
- 我們打造出可理解整體內容的系統,能夠分析內容以協助判斷其中是否包含仇恨言論。
在兼容開放的齊心努力下,帶領人工智慧產業持續前行
有害內容帶來的挑戰,對整體科技產業和社會都影響甚鉅。因此我們將自家技術開源,讓其他人也得以運用。我們相信與人工智慧社群維持開放合作的關係,將能加快相關研究和發展的速度,並創造出能偵測和預防有害內容,以及協助確保用戶安全的新方法。
以下是我們近幾年已經開源的幾項技術,其中包括 2 項由我們帶頭發起的產業競賽:
XLM-R
XLM-R 是一種機器學習模型,以一種語言進行訓練,之後無需額外的訓練資料,便能運用於其他語言。由於用戶在 Meta 技術平台上發佈的內容超過 160 種語言,XLM-R 可讓我們使用單一模型處理多種語言,而不必針對各種語言使用不同模型。這能協助我們在各種語言中,更輕易地辨識仇恨言論和其他違規內容,以及一次推出多種語言版本的產品。我們將自家模型和程式碼開源,讓研究社群能提升多種語言模型的成效。
目標:為我們平台的用戶提供最佳體驗,不論他們使用哪種語言。Linformer
Linformer 是一種轉換工具架構,能夠分析 Facebook 和 Instagram 上來自全球不同區域的數十億則內容。Linformer 能協助偵測仇恨言論和煽動暴力的內容。我們發佈了研究報告並將 Linformer 程式碼開源,讓其他研究人員和工程師能用來改善自己的模型。
目標:建立全新的人工智慧模型,以便透過文字、圖像和語音學習,並有效率地偵測仇恨言論、人口販運、霸凌和其他形式的有害內容。偵測深度偽造大挑戰(Deepfakes Detection Challenge)
我們與 Microsoft、Partnership on AI 以及多所大學的學者共同發起一項競賽,競賽主題是更精準偵測出人工智慧被用於變造影片以誤導觀眾的相關技術。我們對偵測深度偽造大挑戰的貢獻,是經由委託製作了業界所缺乏的擬真資料集,以協助偵測深度偽造。
目標:促進產業透過全新方式偵測經人工智慧變造的影音內容,並防止這些內容被用於誤導大眾。仇恨迷因大挑戰(Hateful Memes Challenge)
我們與 Getty Images 和 DrivenData 共同發起一項競賽,以針對偵測同時包含圖像和文字的仇恨言論的問題,加速相關研究進行。我們對仇恨迷因大挑戰的貢獻,是建立了含有超過 10,000 個範例的獨特資料集,讓研究人員輕鬆運用在作品中。
目標:促進產業打造出偵測多重模式仇恨言論的全新方式和方法。