クロスチェックシステムを介した影響が大きいコンテンツの的確な審査
更新日 2024/11/12
2022年12月6日、監督委員会は、Metaのクロスチェックに関するポリシーについて、ポリシーに関する忠告を公開しました。複数ある勧告に全面的に対処するため、委員会との間では90日以内に内容を確認し、回答することで合意しています。クロスチェックシステムについて詳しくは、透明性センターの投稿をご覧ください。
クロスチェックの概要
FacebookとInstagramの利用者による投稿は日々膨大な数にのぼります。この規模のコンテンツを管理することは、重要な価値観と目標のメリットとデメリットを含め、課題が伴います。このため、弊社は、違反の可能性があるコンテンツを速やかに審査し、弊社のポリシーに違反している場合は削除するよう努めています。しかし、利用者の発言を守るためには、この目標と、「誤判定」(違反していないコンテンツを誤って削除すること)のリスクのバランスを取る必要があります。(ここでは、保全のための措置をより一般的に説明するために、コンテンツの「削除」という表現を使用しています。これには、例えば、警告表示の使用やページの削除なども含まれる場合があります。)
このような考慮事項のバランスを取るため、Metaはクロスチェックシステムを導入することで、誤判定のリスクが高いと思われるコンテンツを特定し、審査のレベルを増やすことで、そのリスクを低減しています。クロスチェックでは、弊社の内部システムにより違反であると(自動審査または人的審査により)報告された特定のコンテンツに対し、審査のレベルを増やすことで、ニュアンスや文脈の解釈が必要なものなど、さまざまな要因に起因して発生する可能性のある、最もリスクの高い誤判定の管理エラーを防止したり、最小限に抑えたりすること目的としています。(ここでは、クロスチェックシステムで審査されるものを「コンテンツ」と呼んでいます。また、クロスチェックを使用して、ページやプロフィールの削除などの他の措置も審査しています。)クロスチェックにより審査のレベルは増えますが、審査担当者は、FacebookまたはInstagram上の他のすべてのコンテンツに適用されているものと同一のコミュニティ規定を適用します。
クロスチェックシステムは、人権保護において重要な役割を果たしています。例えば、クロスチェックシステムには、団体、ならびに紛争地帯を取材するジャーナリストによる投稿、およびヘイト行為や暴力の事例について意識向上に取り組むコミュニティリーダーによる投稿が含まれます。クロスチェック審査は、対象コンテンツの背景を考慮し、適切な措置の実施に役立てています。クロスチェック審査は、市民団体のリーダーの発言について利用者が高い関心を持っている場合には、その市民団体にも適用されることがあります。
さらに、クロスチェックは、Metaの多くのビジネスパートナーとの関係を管理する上で、重要な役割を果たしています。例えば、フォロワーの多いページやプロフィールから投稿されたコンテンツを誤って削除すると、Metaのビジネスパートナーと、それをフォローしている大勢の利用者の両方に不快な体験をさせてしまうことになりかねません。また弊社は、エラーにより、何十万人または何百万人もの利用者に影響を与えかねない非常に大規模なグループにもクロスチェックを実施しています。クロスチェックは、Metaのビジネスパートナーやグループを弊社のコンテンツポリシーから除外するものではありませんが、審査のレベルを増やすことで、これらのポリシーが的確に適用されていることを確認することがあります。
FacebookとInstagramの利用者による投稿は日々膨大な数にのぼります。世界各地の何千人もの審査担当者を動員しても、弊社のコミュニティ規定に違反している可能性のあるコンテンツ一つ一つを人的審査することは不可能です。弊社が削除する違反コンテンツのほぼ大半は、それらが報告される前に、弊社のテクノロジーを利用して積極的に検出しています。FacebookやInstagramに誰かが投稿した場合、弊社のテクノロジーが、そのコンテンツがコミュニティ規定に違反していないかどうかを確認します。多くの場合、この確認は単純明瞭です。つまり、投稿が弊社のポリシーに明白に違反しているか、していないかを確認するだけです。ただし、コンテンツが人的審査にエスカレーションされ、追加の評価を受ける場合もあります。
弊社の主要な審査システムはテクノロジーを使用することで、クチコミですぐに広がるようなコンテンツなど、重大度の高いコンテンツを優先しています。コンテンツのエスカレーションが必要であるとシステムが判断した場合、弊社の審査担当者は、コンテンツをプラットフォーム上に残しておくべきかどうかについて、難しい、そして時には微妙な判断を下します。弊社は、常に正しい判断を行うことを目指していますが、誤判定の発生により、実際にはMetaのポリシー違反していないコンテンツも、削除の対象になってしまうことを認識しています。そのため、Metaは、ミス防止策に投資を行うことで、誤判定を詳しく調査し、軽減するよう努めています。クロスチェックは、このようなミス防止策の一環です。
クロスチェックは、人的審査のレベルを増やすことで、施行決定を的確に行うことを支援するためのシステムです。クロスチェックにおいて、コンテンツが弊社のコミュニティ規定に違反していることを審査担当者が確認した場合、弊社はこれらのポリシーを施行し、違反しているコンテンツを適切に処理します。コンテンツの複雑性に応じて、リーダーによる稀な事例の審査など、複数の審査のレベルを適用することがあります。問題となっているコンテンツが弊社のコミュニティ規定に違反していないと最終審査担当者が判断した場合、最終審査担当者は最初の措置を「覆す」ことができ、このコンテンツをプラットフォーム上に残しておくことができます。
以前のクロスチェック慣行
弊社は、現在はクロスチェックとして知られるシステムを2013年に初めて導入しました。このシステムの詳細は年々変化するため、弊社は可能な限り、このような変更が発生した日の日付や期間をお知らせしていました。
クロスチェック審査の対象となるコンテンツや団体を決定するため、弊社のチームは、誤判定の措置を受けるリスクが高いと思われる利用者や団体を特定し、リスト化しました。「誤判定リスク」とは、実際には弊社のコミュニティ規定に違反していないコンテンツや団体に対し、誤って施行措置が講じられるリスクを言います。誤判定リスクが高い利用者および団体を決定するため、弊社のチームは、利用者や団体の種類(公選職員、ジャーナリスト、重要なビジネスパートナー、人権団体など)、フォロワー数、団体の分野を含む、さまざまな基準を適用しました。(団体とは、ユーザーアカウントやページ、グループなど、コンテンツが生み出されたり表示されたりする可能性のある場所を指す一般用語です。)
これらのリスト上で特定された利用者や団体が投稿したコンテンツや行った行為について、弊社のポリシーに違反している可能性があると弊社のシステムが判断した場合、弊社はこのコンテンツまたは団体をクロスチェック審査のキューに追加します。
2020年より、弊社は、キュー内のほとんどのコンテンツがリスクフレームワークによって優先順位が決定され、Metaが誤ってそのコンテンツを削除した場合に起こりうる誤判定リスクのレベルを割り当てるよう変更しました。このリスクフレームワークは原則として、(1)団体の不適切性、(2)報告された違反の重大度、(3)可能性のある施行措置の3つの要因に依拠するものでした。
現行のクロスチェック慣行
弊社のすべてのポリシーやプロセスと同様、弊社は改善方法を継続的に模索し、絶えず変更を行っています。今年に入り、弊社はクロスチェックシステムを改善するための新たな可能性を把握しました。実施した構造改革の一つにより、クロスチェックシステムは現在、一般二次審査(GSR)と機密性の高い団体の二次審査(SSR)の2つの要素から成り立っています。ある割合の特定の利用者および団体をSSRの対象とする場合は、上記のリストに基づくアプローチを引き続き使用しますが、GSRについては、FacebookおよびInstagramのすべてのユーザーおよび団体のコンテンツが、「クロスチェックランカー」と呼ばれる動的な優先順位付けシステムに基づいてクロスチェック審査の対象となるよう、現在調整を進めています。
GSRには、請負業者の審査担当者および弊社の地域チームスタッフが関与し、施行措置を講じる前に、弊社のポリシーに違反している可能性のあるコンテンツや団体について二次審査を行います。この審査では、クロスチェック審査を受けるコンテンツを決定するにあたり、利用者や団体の身元のみに依拠することはありません。クロスチェックランカーは、トピックの不適切性(そのトピックがどの程度トレンド/不適切であるか)、施行の重大度(可能性のある施行措置の重大度)、誤判定の確率、予想リーチ、および団体の不適切性(主に上記のリスト一覧に基づく)などの基準を用いて、誤判定リスクに基づきコンテンツをランク付けします。クロスチェックランカーは現在、クロスチェック審査の大部分ですでに使用されています。
SSRは、以前のクロスチェックシステムと似ています。SSRの対象となるコンテンツや団体を決定するため、弊社は、コミュニティ規定に違反している可能性があると判断されたものであって、その施行措置が追加のクロスチェック審査の対象となる利用者および団体のリストを引き続き保持します。ただし、これらのリストの作成および修正プロセスに関する規制を追加しました。2020年9月以前は、ほとんどの社員が、利用者や団体をクロスチェックリストに追加する権限を有していました。2020年9月以降は、すべての社員が、利用者や団体をクロスチェックリストに追加するようリクエストできますが、そのリストに追加する権限を有しているのは指定された社員のグループのみとなりました。
現在は弊社のグローバルオペレーションの組織が、専門分野の知識や経験を有する法務やパートナーシップのチームからサポートを受けつつ、SSRリストを管理する責任を負っています。グローバルオペレーションチームの報告体制はMetaの公共政策チームとは切り離されていますが、クロスチェックの判断における意見提供を求めて公共政策チームに相談が行われています。こうした判断は、会社全体にわたるコンテンツモデレーションの数多くの分野に及ぶためです。このような場合、オペレーションチームは、地域の専門家および言語にとらわれない専門分野別の審査担当者と連携し、Metaの公共政策チームの専門知識を活かして、地域的・文化的な視点を深めることができます。報告体制が分離していることで、政治的・経済的な影響とは独立した審査を確保しやすくなります。適切かつ妥当なリストを維持するため、SSRリストに掲載された団体が引き続き対象となるかどうかを監査する入念な年次審査プロセスも策定しました。これについては、時間と共に引き続き改良していく予定です。
この数か月間で、Metaでは1日あたり、平均して数千件のクロスチェックされたジョブを審査していますが、その大部分はGSRで完了しています。(1日に何百万件ものコンテンツが弊社のコミュニティ規定に違反しているとして判断され、措置が講じられていますが、これと比べれば小さな割合です。)現在、このような1日単位の審査をSSRで扱うことは多くありません。2021年末から2022年にかけてのGSRの優先順位付けの結果から、弊社は、クロスチェック審査のジョブ数は継続的に変化すると予測しています。
コンテンツが、SSRの一部として含まれる個人のものである場合、通常は地域チームが最初に審査を行います。次にエスカレーションチームが審査を行い、そのコンテンツが違反しているかどうかを確認します。一般的に、コンテンツが弊社のポリシーに違反していないと地域チームが判断した場合は、エスカレーションチームによる審査は行われません。コンテンツが、クロスチェックランカーによって優先順位が付けられた個人または団体のものである場合、エスカレーションチームに審査の余力がある場合を除き、通常は請負業者や地域チームが審査を行います。以前のクロスチェックと同様に、複雑性の高い問題は追加審査を受ける場合があり、これにはリーダーによる稀な事例の審査も含まれます。弊社のコミュニティ規定に違反していると最終審査で判断された場合、弊社はそのコンテンツを削除します。違反していないと弊社の審査で判断された場合は、そのまま残しておきます。
2021年10月16日時点で、およそ660,000の利用者および団体による行為が、上記リストに掲載されていることに基づき、何らかの形のSSRが必要となっています。掲載基準の変更により、上記リストへ利用者および団体を追加したり、リストから削除したりするため、この数は定期的に変わります。SSRの対象となる利用者および団体として、次のような例が挙げられます。
- エスカレーション対応や高リスクのイベントに関係している団体。現在、高リスクのイベントに備えるチームが、過剰な施行のリスクが高い団体を特定するための非公式のプロセスが存在します。例えば、ある利用者の物議を醸すコンテンツ(警察による暴力を映したライブ動画など)が拡散されている場合、誤って削除することを防ぐため、その利用者を特定してSSRに付託する場合があります。
- 法令遵守を目的として含まれる団体。弊社は、法令や規制の要件を遵守するため、一定の事情においてはSSRを行う場合があります。
- 注目度の高い公人・著名人やパブリッシャー過剰な施行は多くの利用者に不快な体験をさせてしまう可能性があるため、弊社は、SSRの対象となる団体を特定しています。
- 社会的に疎外された人びと。弊社は、人権擁護者や政治的反体制派、その他国家が支援するまたは敵対的な嫌がらせ、ブリゲーディング、大量報告の対象となる可能性があると考えられる人びとを特定し、そのような攻撃から保護しています。
- 市民団体。弊社は、客観的基準および各地域のポリシーチームの専門知識に従い、政治家、政府職員、機関、組織、アドボカシー団体、市民インフルエンサーを特定しています。このような団体をSSRの対象とすることで、違反していない政治的発言を制限したり、選挙や公共政策、社会問題などの市民的な話題の議論に不用意な影響を与えてしまう過ちを防止したりしています。弊社は、各国の市民団体を同等に扱うことを目指しています。例えば、ある国の内閣の省をSSRの対象とする場合は、その国の政府のすべての省庁をSSRの対象とします。
- ビジネス。弊社は、弊社プラットフォームにおける収益を保護し、そこで長期的な信頼性を構築するために、価値の高い広告主および過剰施行を経験したことのある広告主を特定しています。
現在、SSRの対象となるべき団体を特定するにあたり、その基準の改善方法について検討しています。その例として、フォロワー数、過去に誤判定された施行数、法的要件/規制要件、および重要な政治的問題/社会的問題などの分野における基準の改善を進めています。利用者は、こちらのフォームを使用して、自身がSSRリストに含められないようリクエストできます。Metaは、利用者が当該リストに含められているかや、そこから削除されているかどうかについて確認しませんが、利用者の匿名性は極めて重要だと考えており、それぞれのリクエストについてはできる限り速やかに審査します。
クロスチェックシステムの2つの要素に加えて、弊社では、ダイナミックマルチ審査(DMR)と呼ばれるミス防止のための社内システムも導入しています。このシステムは、正確性に対して弊社がより強い自信を持つことができるよう、一旦審査された事例を再審査にかけ、決定について過半数投票を実施できるシステムです(例: 審査担当者らの過半数が決定に同意した場合、その事例の処理は完了します)。弊社では、バイラリティ、表示数、危害の一因となる可能性(例: 性的搾取、または危険な人物および団体に関するポリシーの違反の可能性)など、いくつもの異なる要素に基づいて最終決定を下すのに必要な審査回数を調整することにより、人間による審査の質と正確性を向上させ、誤った決定のリスクを軽減させる目的でこのシステムを活用しています。
クロスチェックの透明性向上に向けた今後の処置
クロスチェックに関連したポリシーに関する忠告の付託に対して監督委員会が下した2022年12月の決定に対応して、弊社は、ミス防止関連の透明性向上に向けた一連の処置にも取り組んでいます。具体的には、以下のような処置があります。
- クロスチェックリストに盛り込む公益性のある団体を特定するに当たって弊社が用いている基準を知らせる方法を検討するため、社内の人権・公民権チーム、信頼できるパートナー、その他の外部の市民社会団体と、体系的かつ強固な形で関わりを築く。
- 世界的、地域的、局地的な市民社会グループに関して、より形式的なクロスチェックリストの指名プロセスを検討する。
- クロスチェックにおけるすべての判断を、可能な限り、該当の言語を話し、地域の専門知識を有する審査担当者に任せるため、質の高い審査やリソースの訓練に投資する。
- 現在の審査担当者の配置モデルが、可能な限り最も迅速な言語別審査に向けて最適な形となるよう、複数のミス防止システムにわたる審査決定に関して強固なサービスレベル合意書(SLA)を実施する。
弊社はクロスチェックシステムを大幅に改善してきましたが、このシステムにおいて、弊社のコミュニティ規定に違反するコンテンツを削除しながら、最大の影響を与えてしまう施行エラーを最小限に抑えるという目標のバランスを適切に取れるよう、現在も努力を重ねています。