Metaによるテクノロジーの訓練
更新日 2022/01/19
コンテンツに含まれる意味合いは人間の目にはごく明らかな場合でもテクノロジーにとってはそうでないことがあります。Metaは、人々の安全を維持するため、違反している投稿の検出方法に関する人工知能の訓練を実施する必要があると考えています。
例えば、次のコンテンツにはテキストと画像の組み合わせが使われています。これのうち、2つの画像には善意が見られますが、他2つの画像には悪意があるような印象を与える可能性があります。
適切に訓練されていないAIにとって、これらの違いを見分けることは困難です。AIはテキストを読み取って言葉の実際の意味を判断するか、写真の被写体が示唆する一般的な意味を画像から判断するかのどちらかを行います。その一方で人はテキストと画像の両方を一緒に見て、このコンテンツが含む意味合いを直感的に理解できます。
こうした課題の克服につながる1つの手段として、投稿に含まれるすべての構成要素を検証してから、コンテンツに含まれる本当の意味合いを判断するようにテクノロジーを訓練することができます。投稿を見るときに人がそこから何を汲み取っているかをより正確に検出する領域までにAIを訓練するには長い時間を要すると考えられます。
また弊社では、現在掲載されている数百万件のコンテンツから直接学習し、弊社の目標を反映する訓練データを選出するようAIに指示するシステムも利用しています。これは、固定されたデータを訓練に使用する通常のAIシステムとは異なります。こうしたシステムを利用することで、ヘイトスピーチや、暴力を助長するようなコンテンツから人々をさらに堅牢に保護できるようになります。やるべき作業はまだ多くありますが、弊社はこれらの訓練を通じてテクノロジーを継続的に改良し、それがさまざまなコンテンツに含まれる本当の意味合いをより正確に理解できるようになると考えています。