Meta 如何训练技术
更新日期 2022年1月19日
有时候,一条内容的含义对审核人员而言显而易见,但对技术来说却不太明显。为了保护用户安全,Meta 需要训练人工智能学会如何检测违规帖子。
例如,以下内容既有文字也有图片。其中有两张图片是善意的,而另外两张则可能不怀好意。
如果没有经过适当的训练,大多数人工智能都难以区分其中的差别。技术要么在读完文字之后确定其字面意思,要么在查看图片以后确定照片主体的一般含义。但是,用户会下意识地将文字和图片联系在一起来理解内容。
我们解决这个问题的方法之一便是,训练技术首先查看帖子的所有组成部分,然后再确定其真正含义。这种方法对改进人工智能大有裨益,可助其更准确地检测出用户看到同一篇帖子时所理解的含义。
此外,我们还有一个系统可以引导人工智能直接从海量现有内容中学习,并帮助挑选能反映我们目标的训练数据。这不同于依赖固定数据进行训练的典型人工智能系统。借助这种方法,我们可以更有效地保护用户远离仇恨言论和煽动暴力的内容。我们要做的工作还有很多,但这种训练有助于我们的技术不断完善,并更好地理解多模态内容的真正含义。