Meta किस तरह से अपनी टेक्नोलॉजी को बेहतर बना रहा है

अपडेट किया गया 19 जन 2022
उल्लंघन करने वाले कंटेंट का पता लगाने और लोगों को सुरक्षित रखने की हमारी क्षमता को बेहतर बनाने के लिए हम आर्टिफ़िशियल इंटेलिजेंस में निवेश करते हैं. चाहे यह मौजूदा सिस्टम को बेहतर बनाना हो या नए सिस्टम जोड़ना हो, ये निवेश कंटेंट से जुड़े फ़ैसले अपने-आप लेने में हमारी मदद करते हैं, ताकि हम तुरंत एक्शन ले सकें और गलतियाँ कम हों.
किसी कंटेंट का सही मतलब निकालने का काम हमारे टूल बेहतर तरीके से कर सकें, इसके लिए हमने AI टेक्नोलॉजी को बेहतर बनाने वाले ये कुछ उपाय किए हैं:
  • हमने Linformer नाम का एक नया आर्किटेक्चर तैयार किया है, जो दुनिया भर के अलग-अलग क्षेत्रों में Facebook और Instagram पर कंटेंट का विश्लेषण करता है.
  • हमने Reinforced Integrity Optimizer नाम का नया सिस्टम बनाया, जो नफ़रत फैलाने वाली भाषा का पता लगाने की हमारी क्षमता को बेहतर बनाने के लिए ऑनलाइन सिग्नल से चीज़ें पता करता है.
  • हमने SimSearchNet नाम के इमेज-मैचिंग टूल को बेहतर बनाया, जो कंटेंट में छोटे से छोटे अंतर का पता लगाने में हमारी टेक्नोलॉजी की मदद करता है, ताकि हम गलत जानकारी वाले कंटेंट पर एक्शन ले सकें.
  • हमने XLM और XLM-R नाम के भाषा से जुड़े टूल शामिल किए, ये ऐसे क्लासिफ़ायर तैयार करने में हमारी मदद करते हैं, जो एक ही कंसेप्ट को कई भाषाओं में समझते हैं. इसका यह मतलब है कि जब हमारी तकनीक एक भाषा में सीख सकती है, तो यह अन्य भाषाओं में भी इसके प्रदर्शन को बेहतर बना सकती है. यह उन भाषाओं के लिए खास तौर से उपयोगी है, जो इंटरनेट पर आम नहीं हैं.
  • हमने पूरी एंटिटी को समझने वाला सिस्टम बनाया, जो यह तय करने में कंटेंट का विश्लेषण करता है कि इसमें नफ़रत फैलाने वाली भाषा है या नहीं.
ओपन प्लेटफ़ॉर्म के ज़रिए सभी के साथ मिलकर AI इंडस्ट्री को आगे ले जाना
नुकसानदेह कंटेंट की चुनौतियाँ पूरी टेक इंडस्ट्री और समाज को बड़े पैमाने पर प्रभावित करती हैं. इसलिए, हम अपनी टेक्नोलॉजी को ओपन-सोर्स रखते हैं, ताकि यह अन्य लोग भी इसका उपयोग कर सकें. हमारा मानना है कि AI कम्युनिटी के लिए ओपन प्लेटफ़ॉर्म बनाकर सभी की मदद लेने से रिसर्च और डेवलपमेंट को बढ़ावा मिलेगा, नुकसानदेह कंटेंट का पता लगाने और उसे रोकने के नए तरीके बनाए जा सकेंगे और लोगों को सुरक्षित रखने में मदद मिलेगी.
पिछले कुछ सालों में हमने कुछ टेक्नोलॉजी सभी के लिए उपलब्ध कराई हैं और इंडस्ट्री से संबंधित 2 प्रतिस्पर्धाएँ भी आयोजित की हैं:
XLM-R एक ऐसा मशीन लर्निंग मॉडल है, जिसे एक भाषा की ट्रेनिंग दी गई और फिर इसे अतिरिक्त ट्रेनिंग डेटा के बिना अन्य भाषाओं के साथ भी उपयोग किया गया. Meta के ऐप्स और प्लेटफ़ॉर्म पर लोग 160 से ज़्यादा भाषाओं में कंटेंट पोस्ट करते हैं, हम XLM-R के ज़रिए हर भाषा के लिए एक अलग मॉडल उपयोग करने के बजाय, कई भाषाओं के लिए एक ही मॉडल का उपयोग कर सकते हैं. इसकी मदद से हम कई प्रकार की भाषाओं में नफ़रत फैलाने वाली भाषा तथा उल्लंघन करने वाले अन्य कंटेंट को ज़्यादा आसानी से पहचान सकते हैं और एक ही बार में कई भाषाओं में प्रोडक्ट लॉन्च कर सकते हैं. हमने अपने मॉडल और कोड को सभी के लिए उपलब्ध कराया, ताकि रिसर्च कम्युनिटी उनके बहुभाषी मॉडल की परफ़ॉर्मेंस में सुधार कर सके.
लक्ष्य: लोगों को हमारे प्लेटफ़ॉर्म पर सबसे अच्छा अनुभव देना, भले ही वे कोई भी भाषा बोलते हों.
Linformer एक ट्रांसफ़ॉर्मर आर्किटेक्चर है, जो दुनियाभर के अलग-अलग क्षेत्रों में Facebook और Instagram पर मौजूद कंटेंट से जुड़ी कई चीज़ों का विश्लेषण करता है. Linformer नफ़रत फैलाने वाली भाषा और हिंसा को बढ़ावा देने वाले कंटेंट का पता लगाने में मदद करता है. हमने अपना रिसर्च प्रकाशित किया और Linformer के कोड को सभी के लिए उपलब्ध कराया, ताकि रिसर्च करने वाले अन्य लोग और इंजीनियर अपने मॉडल को बेहतर बना सकें.
लक्ष्य: ऐसा नया AI मॉडल बनाना, जो टेक्स्ट, फ़ोटो और भाषा से सीखता है और नफ़रत फैलाने वाली भाषा, मानव तस्करी, डराना-धमकाना तथा अन्य प्रकार के नुकसानदेह कंटेंट का प्रभावी तरीके से पता लगाता है.
हमने Microsoft, Partnership on AI और कई विश्वविद्यालयों के शैक्षणिक विशेषज्ञों के साथ मिलकर, टेक्नोलॉजी से संबंधित एक ऐसी प्रतिस्पर्धा तैयार की, जो इस बात का बेहतर तरीके से पता लगाए जब व्यूअर्स को गुमराह करने के लिए, AI का उपयोग करके वीडियो में बदलाव किया गया हो. डीपफ़ेक का पता लगाने की चुनौती में हमारा योगदान ऐसा व्यावहारिक डेटा सेट उपलब्ध करवाना था, जिसकी इंडस्ट्री में कमी थी.
लक्ष्य: AI के ज़रिए हेरफेर किए गए मीडिया का पता लगाने और लोगों को गुमराह करने के लिए इसका उपयोग किए जाने को रोकने के नए तरीके बनाने के लिए इंडस्ट्री को प्रोत्साहित करना.
हमने फ़ोटो और टेक्स्ट का उपयोग करके नफ़रत फैलाने वाली भाषा का पता लगाने से जुड़ी समस्या पर रिसर्च को बढ़ावा देने के लिए, Getty Images तथा DrivenData के साथ मिलकर एक प्रतिस्पर्धा तैयार की. नफ़रत फ़ैलाने वाले मीम से जुड़ी चुनौती में हमारा योगदान 10,000 से ज़्यादा उदाहरणों का यूनिक डेटा सेट बनाना था, ताकि रिसर्च करने वाले लोग उन्हें आसानी से अपने काम में उपयोग कर सकें.
लक्ष्य: मल्टी-मोडल तरीकों से फैलाई गई नफ़रत भरी भाषा का पता लगाने के लिए, नए तरीके और विधियाँ बनाने के लिए इंडस्ट्री को प्रोत्साहित करना.