آلية تدريب التقنية في Meta
تاريخ التحديث ١٩/٠١/٢٠٢٢
في بعض الأحيان، يكون معنى المحتوى واضحًا على الفور للشخص ولكنه أقل وضوحًا للتقنية. وللحفاظ على سلامة الأشخاص، تحتاج Meta إلى تدريب الذكاء الاصطناعي على كيفية اكتشاف المنشورات المخالفة.
على سبيل المثال، يجمع المحتوى التالي بين النص والصور. صورتان من الأربعة يبدو عليهما حسن النية، وصورتان من المحتمل أن تنطويا على سوء النية.
دون تدريب مناسب، تواجه معظم آليات الذكاء الاصطناعي صعوبةً لإدراك مثل هذه الفروق. فالذكاء الاصطناعي إما أن يقرأ النص ويحدد المعنى الحرفي للكلمات، أو ينظر إلى الصورة لتحديد المعنى العام لموضوع الصورة. ومن الناحية الأخرى، يقرن الأشخاص بشكل غريزي النص والصورة معًا لفهم المحتوى.
تتمثل إحدى طرق معالجة هذا الأمر في تدريب تقنياتنا على النظر في جميع مكونات المنشور أولاً، وبعد ذلك فقط تتولى تحديد المعنى الحقيقي. ويمكن أن تقطع هذه الطريقة شوطًا طويلاً في مساعدة الذكاء الاصطناعي على اكتشاف ما يراه الشخص بدقة أكبر عند عرض المنشور نفسه.
نستخدم أيضًا نظامًا يوجّه الذكاء الاصطناعي للتعلُّم مباشرة من ملايين العناصر الحالية من المحتوى ويساعد على اختيار بيانات التدريب التي تعكس أهدافنا. ويختلف هذا عن أنظمة الذكاء الاصطناعي النموذجية التي تعتمد على البيانات الثابتة للتدريب. إذ يساعدنا استخدام هذه الطريقة على حماية الأشخاص بشكل أفضل من الخطابات التي تحض على الكراهية والمحتوى الذي يحرض على العنف.ندرك أن الأمر ما يزال يتطلب منا الكثير من العمل، ولكن هذا التدريب سيساعد تقنياتنا على مواصلة التحسُّن وفهم المعنى الحقيقي للمحتوى متعدد الوسائط بشكل أفضل.