Meta는 사람들이 목소리를 낼 기회를 제공하고 안전하게 보호하기 위해 최선을 다하고 있습니다.

2016년부터 Meta 테크놀로지 전반에서 콘텐츠를 관리하기 위해 '삭제, 축소, 정보 제공' 전략을 사용하고 있습니다.
즉 Meta 정책을 위반하는 유해한 콘텐츠를 삭제하고, 정책을 위반하지 않지만 문제가 있는 콘텐츠의 배포를 축소하고, 사람들이 클릭하거나 읽거나 공유할 콘텐츠를 직접 결정할 수 있도록 추가 정보를 제공합니다.
이 전략 시행을 위해 Meta는 플랫폼에서 허용되는 콘텐츠와 허용되지 않는 콘텐츠를 설명하는 정책을 마련했습니다. Meta 팀은 정책을 개발하여 시행하기 위해 상호 협력합니다. 협력 방식은 다음과 같습니다.

1

Meta는 정책을 만들고 개정하기 위해 기술, 공공 안전 및 인권 부문의 전 세계 전문가와 협력합니다.

2

사람들이 콘텐츠를 신고하고 계정을 차단하거나, 숨기거나, 팔로우 취소할 수 있도록 안전 관련 기능을 구축합니다.

3

기술과 인적 검토를 활용하여 정책을 시행합니다.
사람들을 안전하게 보호하고 정책, 시행 및 투명성 보고서를 공유하여 Meta에 책임이 있음을 알립니다.
policy-image
Meta 정책
Meta 정책은 Meta 테크놀로지에서 허용되는 사항과 허용되지 않는 사항을 규정합니다. 콘텐츠가 Meta 정책을 위반할 경우 해당하는 조치를 시행합니다.
enforcement-image
규정 시행
기술 및 검수 팀을 통해 Facebook과 Instagram에서 매일 수백만 개의 콘텐츠를 감지, 검수 및 조치합니다.
transparency-reports-image
Meta 투명성 보고서
사람들이 Meta의 정책 시행 현황을 알 수 있도록 정기 투명성 보고서를 공개합니다.
ranking-image
랭킹 결정 방법에 대한 저희의 접근방식
Facebook 피드 보기, Instagram 릴스 시청, Facebook Marketplace 검색 등 Meta의 수많은 제품 이용 환경에서 인공 지능(AI) 시스템이 콘텐츠의 랭킹에 영향을 미칩니다.
최근 소식