วิธีที่ Meta ใช้จัดลำดับความสำคัญของเนื้อหาเพื่อการตรวจสอบ

อัพเดตแล้ว 12 พ.ย. 2024
เทคโนโลยีของ Meta จะตรวจจับและลบเนื้อหาส่วนใหญ่ที่ละเมิดนโยบายออกก่อนที่จะมีการรายงาน เมื่อมีคนโพสต์บน Facebook, Instagram, Messenger หรือ Threads เทคโนโลยีของเราจะตรวจสอบว่าเนื้อหานั้นขัดต่อมาตรฐานชุมชนหรือไม่ การระบุดังกล่าวทำได้ง่ายในกรณีส่วนใหญ่ เพราะโพสต์จะละเมิดนโยบายอย่างชัดเจน หรือไม่ก็ไม่ละเมิดเลย
แต่บางครั้งการระบุอาจเป็นเรื่องยาก โดยอาจเป็นเพราะความรู้สึกโดยรวมของโพสต์ไม่ชัดเจน ภาษามีความซับซ้อนเป็นพิเศษ หรือรูปภาพอิงกับบริบทมากเกินไป ซึ่งในกรณีเหล่านี้เราจะให้เจ้าหน้าที่ตรวจสอบต่อไป
ปัจจัยที่ใช้จัดลำดับความสำคัญสำหรับการตรวจสอบจากเจ้าหน้าที่
เมื่อต้องเลือกว่าทีมเจ้าหน้าที่ตรวจสอบควรตรวจสอบเนื้อหาใดก่อน เราจะพิจารณาปัจจัย 3 ข้อ ดังนี้
ความรุนแรง
เนื้อหามีแนวโน้มมากน้อยเพียงใดที่จะนำไปสู่อันตรายทั้งบนโลกออนไลน์และในชีวิตจริง
ความเป็นไวรัล
เนื้อหาได้รับการแชร์รวดเร็วเพียงใด
ความเป็นไปได้ในการละเมิด
เนื้อหาที่พิจารณามีแนวโน้มมากน้อยเพียงใดที่จะเป็นการละเมิดนโยบายจริง
เนื่องจากเราต้องการป้องกันไม่ให้เกิดอันตรายมากที่สุดเท่าที่จะทำได้ ระบบตรวจสอบของเราจึงใช้เทคโนโลยีเพื่อให้ความสำคัญกับเนื้อหาที่มีความรุนแรงสูงและมีโอกาสก่อให้เกิดอันตรายในชีวิตจริง รวมถึงเนื้อหาไวรัลที่แพร่หลายอย่างรวดเร็ว
ทีมเจ้าหน้าที่ตรวจสอบช่วยให้เทคโนโลยีของเราดียิ่งขึ้น
ทีมเจ้าหน้าที่ตรวจสอบของเราใช้ความเชี่ยวชาญในพื้นที่และท้องถิ่นที่นโยบายครอบคลุมเพื่อทำการตัดสินที่ยากและมีความละเอียด ซึ่งทุกครั้งที่เจ้าหน้าที่ตรวจสอบทำการตัดสิน เราจะนำข้อมูลนั้นมาใช้ฝึกฝนเทคโนโลยี เมื่อเวลาผ่านไป การตัดสินนับล้านๆ ครั้งจะทำให้เทคโนโลยีของเราดียิ่งขึ้น จึงช่วยให้เราลบเนื้อหาที่ละเมิดนโยบายได้มากขึ้น
การช่วยให้เจ้าหน้าที่ตรวจสอบตัดสินอย่างถูกต้อง
เทคโนโลยีสนับสนุนการทำงานของทีมเจ้าหน้าที่ตรวจสอบ
เมื่อเวลาผ่านไป เทคโนโลยีของเราจะพัฒนาขึ้นเมื่อได้รับตัวอย่างเนื้อหาที่ละเมิดนโยบายจำนวนมากขึ้น เช่นเดียวกับโมเดลการเรียนรู้ของเครื่องโมเดลอื่นๆ ซึ่งหมายความว่าทีมเจ้าหน้าที่ตรวจสอบสามารถมุ่งเน้นไปที่เนื้อหาที่รุนแรง เป็นไวรัล ละเอียด ใหม่ และซับซ้อนได้มากขึ้น ซึ่งก็คือลักษณะการตัดสินที่คนมักจะทำได้ดีกว่าเทคโนโลยี
คำถามทั่วไปเกี่ยวกับการจัดลำดับความสำคัญในการตรวจสอบเนื้อหา
ก่อนหน้านี้ ทีมเจ้าหน้าที่ตรวจสอบจะใช้เวลาส่วนใหญ่ไปกับการตรวจสอบเนื้อหาที่ผู้คนรายงาน ซึ่งหมายความว่าเจ้าหน้าที่มักใช้เวลามากเกินไปกับเนื้อหาที่มีความรุนแรงต่ำหรือเป็นที่ชัดเจนว่าไม่ได้ละเมิดนโยบาย และใช้เวลาน้อยเกินไปกับเนื้อหาที่รุนแรงที่สุดซึ่งมีโอกาสก่ออันตรายมากที่สุด และยังหมายความด้วยว่าคำตัดสินจำนวนมากของเจ้าหน้าที่ไม่ได้มีประโยชน์มากนักในการปรับปรุงเทคโนโลยีการบังคับใช้
แนวทางการจัดลำดับความสำคัญแบบปัจจุบันของเราจะแก้ไขปัญหาเหล่านี้ ทำให้เราตรวจสอบเนื้อหาที่มีโอกาสเป็นอันตรายมากที่สุดได้เป็นลำดับแรก และช่วยให้ปรับปรุงเทคโนโลยีได้เร็วขึ้น
ไม่จำเป็น ทั้งทีมเจ้าหน้าที่ตรวจสอบและเทคโนโลยีล้วนมีบทบาทในการตรวจสอบรายงานจากผู้ใช้ โดยในกรณีที่เทคโนโลยีสามารถวิเคราะห์รายการเนื้อหาที่กำหนดได้ เทคโนโลยีจะเลือกดำเนินการหรือไม่ดำเนินการกับเนื้อหาที่พิจารณาโดยอัตโนมัติ
เราจัดตั้งทีม Responsible AI ขึ้นเพื่อคลายความกังวลด้านความเป็นธรรมและการไม่แบ่งแยกที่เกี่ยวกับการใช้ AI ในเทคโนโลยีในเครือ Meta โดยเป็นทีมเฉพาะแบบสหวิทยาการที่ประกอบไปด้วยผู้เชี่ยวชาญด้านจริยธรรม, นักสังคมศาสตร์และรัฐศาสตร์, ผู้เชี่ยวชาญด้านนโยบาย, นักวิจัยปัญญาประดิษฐ์ และวิศวกร เป้าหมายโดยรวมของทีมคือเพื่อพัฒนาแนวทาง เครื่องมือ และกระบวนการที่จะจัดการปัญหาความรับผิดชอบของ AI และช่วยให้แน่ใจว่าทรัพยากรเชิงระบบเหล่านี้จะพร้อมใช้งานในวงกว้างทั่วทั้ง Meta