Meta

Meta
ポリシー
コミュニティ規定Meta広告規定その他のポリシーMetaのサービス向上への取り組み年齢にふさわしいコンテンツ

機能
危険な団体および人物に対する弊社のアプローチオピオイドの流行に対する弊社のアプローチ選挙に対する弊社のアプローチ誤情報に対する弊社のアプローチ他の人に知らせる価値のあるコンテンツに対する弊社のアプローチFacebookフィードのランキングに対する弊社のアプローチランキングの解説に対するFacebookのアプローチMetaでのアクセシビリティ

調査ツール
コンテンツライブラリとコンテンツライブラリAPI広告ライブラリツールその他の調査ツールとデータセット

ポリシーの施行
違反の検出措置の実施

ガバナンス
ガバナンスイノベーション監督委員会の概要監督委員会への異議申し立て方法監督委員会の事例監督委員会の勧告監督委員会の設置監督委員会:ほかに寄せられた質問監督委員会に関するMetaの半期ごとのアップデート監督委員会の影響の追跡

セキュリティ
脅威による遮断セキュリティに対する脅威脅威レポート

レポート
コミュニティ規定施行レポート知的財産権政府機関からの利用者データ開示要請現地法に基づくコンテンツへのアクセス制限インターネット遮断多閲覧コンテンツレポート規制その他の透明性レポート

ポリシー
コミュニティ規定
Meta広告規定
その他のポリシー
Metaのサービス向上への取り組み
年齢にふさわしいコンテンツ
機能
危険な団体および人物に対する弊社のアプローチ
オピオイドの流行に対する弊社のアプローチ
選挙に対する弊社のアプローチ
誤情報に対する弊社のアプローチ
他の人に知らせる価値のあるコンテンツに対する弊社のアプローチ
Facebookフィードのランキングに対する弊社のアプローチ
ランキングの解説に対するFacebookのアプローチ
Metaでのアクセシビリティ
調査ツール
コンテンツライブラリとコンテンツライブラリAPI
広告ライブラリツール
その他の調査ツールとデータセット
ポリシーの施行
違反の検出
措置の実施
ガバナンス
ガバナンスイノベーション
監督委員会の概要
監督委員会への異議申し立て方法
監督委員会の事例
監督委員会の勧告
監督委員会の設置
監督委員会:ほかに寄せられた質問
監督委員会に関するMetaの半期ごとのアップデート
監督委員会の影響の追跡
セキュリティ
脅威による遮断
セキュリティに対する脅威
脅威レポート
レポート
コミュニティ規定施行レポート
知的財産権
政府機関からの利用者データ開示要請
現地法に基づくコンテンツへのアクセス制限
インターネット遮断
多閲覧コンテンツレポート
規制その他の透明性レポート
ポリシー
コミュニティ規定
Meta広告規定
その他のポリシー
Metaのサービス向上への取り組み
年齢にふさわしいコンテンツ
機能
危険な団体および人物に対する弊社のアプローチ
オピオイドの流行に対する弊社のアプローチ
選挙に対する弊社のアプローチ
誤情報に対する弊社のアプローチ
他の人に知らせる価値のあるコンテンツに対する弊社のアプローチ
Facebookフィードのランキングに対する弊社のアプローチ
ランキングの解説に対するFacebookのアプローチ
Metaでのアクセシビリティ
調査ツール
コンテンツライブラリとコンテンツライブラリAPI
広告ライブラリツール
その他の調査ツールとデータセット
セキュリティ
脅威による遮断
セキュリティに対する脅威
脅威レポート
レポート
コミュニティ規定施行レポート
知的財産権
政府機関からの利用者データ開示要請
現地法に基づくコンテンツへのアクセス制限
インターネット遮断
多閲覧コンテンツレポート
規制その他の透明性レポート
ポリシーの施行
違反の検出
措置の実施
ガバナンス
ガバナンスイノベーション
監督委員会の概要
監督委員会への異議申し立て方法
監督委員会の事例
監督委員会の勧告
監督委員会の設置
監督委員会:ほかに寄せられた質問
監督委員会に関するMetaの半期ごとのアップデート
監督委員会の影響の追跡
ポリシー
コミュニティ規定
Meta広告規定
その他のポリシー
Metaのサービス向上への取り組み
年齢にふさわしいコンテンツ
機能
危険な団体および人物に対する弊社のアプローチ
オピオイドの流行に対する弊社のアプローチ
選挙に対する弊社のアプローチ
誤情報に対する弊社のアプローチ
他の人に知らせる価値のあるコンテンツに対する弊社のアプローチ
Facebookフィードのランキングに対する弊社のアプローチ
ランキングの解説に対するFacebookのアプローチ
Metaでのアクセシビリティ
調査ツール
コンテンツライブラリとコンテンツライブラリAPI
広告ライブラリツール
その他の調査ツールとデータセット
ポリシーの施行
違反の検出
措置の実施
ガバナンス
ガバナンスイノベーション
監督委員会の概要
監督委員会への異議申し立て方法
監督委員会の事例
監督委員会の勧告
監督委員会の設置
監督委員会:ほかに寄せられた質問
監督委員会に関するMetaの半期ごとのアップデート
監督委員会の影響の追跡
セキュリティ
脅威による遮断
セキュリティに対する脅威
脅威レポート
レポート
コミュニティ規定施行レポート
知的財産権
政府機関からの利用者データ開示要請
現地法に基づくコンテンツへのアクセス制限
インターネット遮断
多閲覧コンテンツレポート
規制その他の透明性レポート
日本語
プライバシーポリシー利用規約Cookie
このコンテンツは日本語ではまだご利用いただけません。

Home
Oversight
Oversight board cases
Cartoon Case

Oversight Board Selects a Case Regarding a Video of an Edited Cartoon Depicting a Croatian City

更新日 2023/06/12
2022-001-FB-RA
Today, the Oversight Board selected a case appealed by a Facebook user regarding a video depicting an edited version of a Disney cartoon, “The Pied Piper,” posted by a Facebook page that describes itself as a news portal. The video depicts the Croatian city of Knin as being overrun by rats who are driven out by a piper from the Croatian village of Čavoglave playing a well-known Western Balkans’ folk song.
Upon initial review, we found the content to be non-violating and it was left up. However, upon further review, we determined the post did in fact violate our policy on Hate Speech, as laid out in the Facebook Community Standards, and removed it. Meta takes down content that targets a person or group of people based on their race, ethnicity and/or national origin with “dehumanizing speech or imagery in the form of comparisons, generalizations, or unqualified behavioral statements (in written or visual form) to or about: animals that are culturally perceived as intellectually or physically inferior.” In light of the case’s historical context, we determined the content contained a direct attack by comparing Serbians to rats.
We will implement the board’s decision once it has finished deliberating, and we will update this post accordingly. Please see the board’s website for the decision when they issue it.
Read the board’s case selection summary

Case decision
We welcome the Oversight Board’s decision today on this case. The board overturned Meta’s original decision to leave the content on the platform. However, as Meta ultimately removed the content, no further action will be taken.
After conducting a review of the recommendations provided by the board in addition to their decision, we will update this page.
Read the board’s case decision

Recommendations

Recommendation 1 (implementing in part)
Meta should clarify the Hate Speech Community Standard and the guidance provided to reviewers, explaining that even implicit references to protected groups are prohibited by the policy when the reference would reasonably be understood. The Board will consider this recommendation implemented when Meta updates its Community Standards and Internal Implementation Standards to content reviewers to incorporate this revision.
Our commitment: We will update our Community Standards and internal policy guidance to clarify our approach to implicit hate speech, by which we mean hate speech that requires context to interpret. We will explain that it will only be removed when we can reasonably understand the user’s intent.
Considerations: We believe that people use their voice and connect most freely when they don’t feel attacked on the basis of who they are. For that reason, we don’t allow hate speech on our platforms. However, in order to review the volume of expression that people who use our platforms share every day, we have to apply a high-capacity, high-consistency approach. This is why we only remove content when we can reasonably conclude that it contains a hate speech attack based on the context.
Our reviewers make decisions based on the letter of our hate speech policy without adding their own viewpoints. Our at-scale reviewers may escalate questions for expert review where the application of our policy is ambiguous or requires additional context. Content that may contain implicit hate speech, which often uses ambiguous language or requires additional context to interpret, may qualify for this kind of escalation.
The challenges of addressing implicit hate speech can be illustrated with these examples: One post shows an image of a Neo-Nazi rally with the caption, “wow.” A second post shows a meme with two images side-by-side, one showing Adolf Hitler surrounded by German children and the other showing Angela Merkel surrounded by Syrian refugees with a caption that reads, “Germany then vs. Germany now.” In both cases, the intent behind the content is ambiguous: it could be hate speech or it could be speech that condemns hate. When we are unable to determine whether a person’s speech is hate speech, we leave that expression on our platforms.
Next steps: We will add additional language to our Community Standards and policy guidance to clarify that our approach to implicit hate speech is to remove it if it is escalated and we can reasonably understand the user’s intent. We will report on our progress in a future Quarterly Update.

Recommendation 2 (implementing fully)
In line with Meta’s commitment following the "Wampum belt" case (2021-012-FB-UA), the Board recommends that Meta notify all users who have reported content when, on subsequent review, it changes its initial determination. Meta should also disclose the results of any experiments assessing the feasibility of introducing this change with the public. The Board will consider this recommendation implemented when Meta shares information regarding relevant experiments and, ultimately, the updated notification with the Board and confirms it is in use in all languages.
Our commitment: We currently inform all people on our platforms when we change, or maintain, a decision on content they have posted or reported. We will soon add more detail to the messages they receive so that they know when that change is related to the Oversight Board’s review process.
Considerations: Meta sends messages to the people on our platforms when we make a decision about content they have reported, posted, or appealed. Right now, these messages are largely standardized, although we also notify people who have appealed content to the Oversight Board when the status of that content changes as a result of an Oversight Board decision. If we change our enforcement decision on a piece of content due to the Oversight Board’s review, but prior to the Oversight Board’s decision, people who reported, posted, or appealed that content receive standardized messaging that does not mention the board’s involvement. Consistent with our response to Recommendation #1 in the Depicting Indigenous Artwork and Discussing Residential Schools case (2021-012-FB-UA), we are updating our messaging to indicate that the Oversight Board’s review process helped us determine that our enforcement decision was incorrect. These messages will be sent both to people whose posts are under review and to people who reported or appealed the content. We plan to launch this update by the end of the year. The notices will eventually be translated into all the languages that Meta supports.
Next steps: We will update our messaging to acknowledge when Meta’s enforcement decision changes as a result of the Oversight Board’s review process by the end of the year. These messages will be sent to both people who posted the content under review and those who reported or appealed it. We will share updates on this work in future Quarterly Updates.
Meta
透明性センター
ポリシー
ポリシーの施行
セキュリティ
機能
ガバナンス
調査ツール
レポート
日本語