Meta ลงทุนกับเทคโนโลยีอย่างไร
อัพเดตแล้ว 19 ม.ค. 2022
ด้านล่างนี้คือตัวอย่างสิ่งที่เราลงทุนกับเทคโนโลยี AI เพื่อปรับปรุงการทำความเข้าใจเนื้อหาของเครื่องมือเรา
- เราได้พัฒนาสถาปัตยกรรมใหม่ที่ชื่อว่า Linformer ขึ้นมา สถาปัตยกรรมนี้จะวิเคราะห์เนื้อหาบน Facebook และ Instagram ในภูมิภาคต่างๆ ทั่วโลก
- เราได้สร้างระบบใหม่ที่ชื่อว่า Reinforced Integrity Optimizer ขึ้นมา ระบบนี้เรียนรู้จากสัญญาณออนไลน์เพื่อปรับปรุงความสามารถของเราในการตรวจจับคำพูดที่แสดงความเกลียดชัง
- เราได้ปรับปรุงเครื่องมือจับคู่รูปภาพที่ชื่อว่า SimSearchNet ซึ่งช่วยให้เทคโนโลยีของเราตรวจจับความแตกต่างที่แฝงอยู่ในเนื้อหาเพื่อให้เราดำเนินการกับการให้ข้อมูลผิดได้
- เราได้นำเครื่องมือภาษาที่ชื่อว่า XLM และ XLM-R มาใช้เพื่อช่วยเราพัฒนาการจำแนกประเภทคำที่จะเข้าใจมโนทัศน์เดียวกันในหลายๆ ภาษาได้ ซึ่งหมายความว่าเมื่อเทคโนโลยีของเราเรียนรู้จากภาษาหนึ่งได้ เทคโนโลยีก็จะปรับปรุงประสิทธิภาพของตัวเองในภาษาอื่นด้วย ซึ่งมีประโยชน์เป็นพิเศษสำหรับภาษาที่ไม่ได้ใช้กันอย่างแพร่หลายบนอินเทอร์เน็ต
- เราได้สร้างระบบทำความเข้าใจโดยรวมขึ้นมา ระบบนี้จะวิเคราะห์เนื้อหาเพื่อช่วยตัดสินว่ามีคำพูดที่แสดงความเกลียดชังหรือไม่
นำอุตสาหกรรม AI ก้าวไปข้างหน้าด้วยความร่วมมือที่เปิดกว้าง
ความท้าทายที่เกิดจากเนื้อหาที่เป็นอันตรายส่งผลกระทบต่อทั้งอุตสาหกรรมเทคโนโลยีและต่อสังคมเป็นวงกว้าง ด้วยเหตุนี้ เราจึงเปิดโอกาสให้ผู้อื่นได้ใช้เทคโนโลยีของเรา เราเชื่อว่าการเปิดกว้างและร่วมงานกับชุมชน AI จะช่วยผลักดันการวิจัยและการพัฒนา สร้างวิธีการใหม่ๆ ในการตรวจจับและป้องกันเนื้อหาที่เป็นอันตราย และช่วยดูแลผู้คนให้ปลอดภัยได้
ด้านล่างนี้เป็นเทคโนโลยีที่เราเปิดให้สาธารณะได้ใช้งานในช่วงไม่กี่ปีที่ผ่านมา ซึ่งรวมถึง 2 การแข่งขันในอุตสาหกรรมที่เราจัดขึ้นด้วย
XLM-R
XLM-R เป็นโมเดลแมชชีนเลิร์นนิ่งที่ได้รับการฝึกฝนในภาษาหนึ่งแล้วนำไปใช้กับภาษาอื่นๆ โดยไม่ต้องใช้ข้อมูลฝึกฝนเพิ่มเติม เนื่องจากมีคนโพสต์เนื้อหาบนเทคโนโลยีต่างๆ ของ Meta มากกว่า 160 ภาษา โมเดล XLM-R นี้จึงช่วยให้เราใช้โมเดลเดียวกับหลายๆ ภาษาได้ แทนที่จะใช้หนึ่งโมเดลต่อหนึ่งภาษา วิธีนี้ช่วยให้เราระบุคำพูดที่แสดงความเกลียดชังและเนื้อหาที่ละเมิดนโยบายอื่นๆ ในหลากหลายภาษาได้ง่ายขึ้น และเปิดตัวสินค้าในหลายๆ ภาษาพร้อมๆ กันได้ เราเปิดให้สาธารณะใช้โมเดลและโค้ดของเราเพื่อให้ชุมชนวิจัยสามารถปรับปรุงประสิทธิภาพของโมเดลหลากภาษาของ XLM-R ได้
เป้าหมาย: เพื่อให้ผู้คนได้รับประสบการณ์ที่ดีที่สุดบนแพลตฟอร์มของเราไม่ว่าจะพูดภาษาอะไรLinformer
Linformer คือสถาปัตยกรรม Transformer ที่วิเคราะห์เนื้อหาหลายพันล้านชิ้นบน Facebook และ Instagram ในภูมิภาคต่างๆ ทั่วโลก สถาปัตยกรรมนี้ช่วยตรวจจับคำพูดที่แสดงความเกลียดชังและเนื้อหาที่ยุยงให้เกิดความรุนแรง เราเผยแพร่งานวิจัยของเราและเปิดให้สาธารณะใช้โค้ดของ Linformer เพื่อให้นักวิจัยและวิศวกรรายอื่นๆ สามารถปรับปรุงโมเดลของตนได้
เป้าหมาย: เพื่อสร้างโมเดล AI ใหม่ที่เรียนรู้จากข้อความ รูปภาพ และคำพูด และตรวจจับคำพูดที่แสดงความเกลียดชัง การค้ามนุษย์ การกลั่นแกล้ง และเนื้อหาที่เป็นอันตรายรูปแบบอื่นๆ ได้อย่างมีประสิทธิภาพDeepfakes Detection Challenge
เราจัดการแข่งขันร่วมกับ Microsoft, Partnership on AI และนักวิชาการจากหลายมหาวิทยาลัยเพื่อคิดค้นเทคโนโลยีที่สามารถตรวจจับได้ดียิ่งขึ้น เมื่อมีการใช้ AI ปรับเปลี่ยนวิดีโอเพื่อทำให้ผู้รับชมเข้าใจผิด ส่วนร่วมของเราใน Deepfakes Detection Challenge คือการรวบรวมชุดข้อมูลสมจริงที่อุตสาหกรรมยังขาดอยู่เพื่อช่วยในการตรวจจับดีปเฟค
เป้าหมาย: เพื่อกระตุ้นให้อุตสาหกรรมสร้างวิธีการใหม่ๆ ในการตรวจจับและป้องกันไม่ให้มีการดัดแปลงสื่ออย่างไม่เหมาะสมด้วย AI และนำไปใช้เพื่อทำให้คนเข้าใจผิดHateful Memes Challenge
เราจัดการแข่งขันร่วมกับ Getty Images และ DrivenData เพื่อเร่งการวิจัยเกี่ยวกับปัญหาในการตรวจจับคำพูดที่แสดงความเกลียดชังที่รวมรูปภาพและข้อความเข้าด้วยกัน เรามีส่วนร่วมใน Hateful Memes Challenge โดยการสร้างชุดข้อมูลที่ไม่ซ้ำกันมากกว่า 10,000 ตัวอย่างเพื่อให้นักวิจัยสามารถนำไปใช้ในงานของตนได้อย่างง่ายดาย
เป้าหมาย: เพื่อกระตุ้นให้อุตสาหกรรมสร้างวิธีใหม่ๆ ในการตรวจจับคำพูดที่แสดงความเกลียดชังในสื่อหลากรูปแบบ