以开放合作的态度引领人工智能行业向前发展
有害内容带来的挑战影响着整个科技行业和全社会。因此,我们将技术开源,供其他人使用。我们坚信,与人工智能领域保持坦诚、开放的协作将促进技术研发,创新检测和防止有害内容的方法,从而共同保护用户安全。
以下是我们近年来开源的一些技术,其中包括我们牵头开展的 2 场行业竞赛:
XLM-R 是一种机器学习模型,使用一种语言训练后,无需额外训练数据即可用于其他语言。随着用户在 Meta 技术产品上以超过 160 种语言发布内容,XLM-R 让我们得以将一种模型用于多种语言,而无需为每种语言单独使用一种模型。这有助于我们更轻松地识别各种语言的仇恨言论和其他违规内容,并且能同时以多种语言推出产品。我们开源了这个模型及其代码,以便研究社群可以提高其多语言模型的性能。 目标:为用户打造最佳平台体验,无论他们使用何种语言。
Linformer 是一种转换器架构,可在全球不同地区分析 Facebook 和 Instagram 上的海量内容。Linformer 可帮助检测仇恨言论和煽动暴力的内容。我们发布了相关研究结果并开源了 Linformer 代码,以便其他研究人员和工程师可以改进他们的模型。 目标:构建一个新的人工智能模型,从文本、图片和语音中学习并有效检测仇恨言论、人口贩卖、欺凌和其他形式的有害内容。
我们与 Microsoft、人工智能合作伙伴关系以及多所大学的学者共同举办了一场技术竞赛,探索能更有效地检测利用人工智能编辑视频来误导观众的技术。我们为此次深伪技术检测挑战赛贡献了一份业内缺乏的真实数据集,用以帮助检测深伪技术。 目标:鞭策行业创新方法,检测并防止利用经人工智能编辑的影音内容来误导用户。
我们与盖帝图像 (Getty Images) 和 DrivenData 共同举办了一场竞赛,旨在推动有关检测图片和文本混用的仇恨言论问题的研究。我们对仇恨表情包挑战赛的贡献是创建了一份包含 10,000 多个示例的独特数据集,方便研究人员在工作中轻松使用。 目标:鞭策行业开发出检测多模态仇恨言论的全新途径与方法。