كيفية استثمار Meta في التقنية

تاريخ التحديث ‏١٩‏/٠١‏/٢٠٢٢‏
نحن نستثمر في الذكاء الاصطناعي لتحسين قدرتنا على اكتشاف المحتوى المخالف والحفاظ على سلامة الأشخاص. وسواء كان ذلك لتحسين نظام قائم أو تقديم نظام جديد، تساعدنا هذه الاستثمارات على أتمتة القرارات المتعلقة بالمحتوى حتى نتمكن من الاستجابة بشكل أسرع مع الحد من الأخطاء.
فيما يلي بعض استثماراتنا في مجال تقنية الذكاء الاصطناعي لتحسين طريقة فهم أدواتنا للمحتوى:
  • لقد طوّرنا بنية جديدة تسمى Linformer، تحلل المحتوى على فيسبوك وInstagram في مناطق مختلفة حول العالم.
  • أنشأنا نظامًا جديدًا يسمي Reinforced Integrity Optimizer (نظام تحسين النزاهة المعزز)، يتعلم من الإشارات على الإنترنت لتحسين قدرتنا على اكتشاف الخطابات التي تحض على الكراهية.
  • قمنا بتحسين أداة لمطابقة الصور تسمى SimSearchNet، تساعد تقنياتنا على اكتشاف الفروق الدقيقة في المحتوى حتى نتمكن من اتخاذ إجراء بشأن المعلومات المضللة.
  • لقد قمنا بدمج أدوات لغوية تسمى XLM وXLM-R، تساعدنا على تصميم أدوات التصنيف التي تفهم المفهوم نفسه بلغات متعددة. وهذا يعني أنه عندما تتمكن تقنياتنا من التعلُّم بلغة واحدة، يمكنها تحسين أدائها في لغات أخرى، وهو أمر مفيد بشكل خاص للغات الأقل شيوعًا على الإنترنت.
  • صممنا نظامًا كاملاً لفهم الكيانات، يحلل المحتوى للمساعدة على تحديد ما إذا كان يتضمن خطابًا يحض على الكراهية أم لا.
الارتقاء بمجال الذكاء الاصطناعي بجهود منفتحة وتعاونية
تؤثر تحديات المحتوى الضار على قطاع التقنية بأكمله والمجتمع ككل. ولهذا نجعل تقنياتنا مفتوحة المصدر ومتاحة ليستخدمها الآخرون. إذ نؤمن بأن روح الانفتاح والتعاون مع مجتمع الذكاء الاصطناعي ستحفز العمل في مجال البحث والتطوير، وتخلق طرقًا جديدة لاكتشاف المحتوى الضار ومنعه، وتساعد في الحفاظ على سلامة الأشخاص.
فيما يلي بعض التقنيات التي جعلناها مفتوحة المصدر في السنوات الأخيرة، بما في ذلك مسابقتان في المجال تحت قيادتنا:
XLM-R عبارة عن نموذج للتعلُّم الآلي يتم تدريبه بلغة واحدة ثم يُستخدم مع لغات أخرى دون الحاجة لبيانات تدريب إضافية. ومع قيام الأشخاص بنشر المحتوى بأكثر من 160 لغة على تقنيات Meta، يتيح لنا XLM-R استخدام نموذج واحد للعديد من اللغات، بدلاً من نموذج واحد لكل لغة. ويساعدنا ذلك على التعرف بسهولة أكبر على الخطاب الذي يحض على الكراهية وغيره من المحتوى المخالف عبر مجموعة واسعة من اللغات وطرح المنتجات بلغات متعددة في وقت واحد. وقد جعلنا نماذجنا ورموزنا مفتوحة المصدر حتى يتمكن العاملون في مجال البحث من تحسين أداء نماذجهم متعددة اللغات.
الهدف: منح الأشخاص أفضل تجربة على منصاتنا، بغض النظر عن اللغة التي يتحدثون بها.
Linformer عبارة عن بنية ثورية تحلل مليارات من عناصر المحتوى على فيسبوك وInstagram في مناطق مختلفة حول العالم. وتساعد Linformer على اكتشاف الخطاب الذي يحض على الكراهية والمحتوى الذي يحرض على العنف. وقد نشرنا أبحاثنا وحرصنا على جعل رموز Linformer مفتوحة المصدر حتى يتمكن غيرنا من الباحثين والمهندسين من تحسين نماذجهم.
الهدف: إنشاء نموذج ذكاء اصطناعي جديد يتعلم من النصوص والصور والخطابات ويكتشف بكفاءة الخطابات التي تحض على الكراهية والإتجار بالبشر والمضايقة وأشكال أخرى من المحتوى الضار.
أطلقنا مسابقة بالشراكة مع Microsoft وشركائنا في مجال الذكاء الاصطناعي وأكاديميين من عدة جامعات، لاختيار أفضل تقنية لاكتشاف حالات استخدام الذكاء الاصطناعي لتغيير مقطع فيديو من أجل تضليل المشاهدين. وقد كانت مساهمتنا في تحدي اكتشاف التزييف العميق متمثلة في توفير مجموعة من البيانات الواقعية، التي ليس لها مثيل في المجال، للمساعدة على اكتشاف التزييف العميق.
الهدف: تحفيز العاملين في المجال على ابتكار طرق جديدة لاكتشاف ومنع استخدام الوسائط التي جرى التلاعب بها باستخدام الذكاء الاصطناعي لتضليل الأشخاص.
أطلقنا مسابقة بالشراكة مع Getty Images وDrivenData لتحفيز الأبحاث التي تتناول مشكلة اكتشاف الخطاب الذي يحض على الكراهية ويجمع بين الصور والنصوص. وقد كانت مساهمتنا في تحدي الميمات التي تحض على الكراهية متمثلة في إنشاء مجموعة بيانات فريدة تضم أكثر من 10000 مثال حتى يمكن للباحثين استخدامها بسهولة في عملهم.
الهدف: تحفيز العاملين في المجال على ابتكار أساليب وطرق جديدة لاكتشاف الخطاب متعدد الوسائط الذي يحض على الكراهية.