एन्फ़ोर्समेंट टेक्नोलॉजी कैसे काम करती है

अपडेट किया गया 12 नवं 2024
Meta अपने कम्युनिटी स्टैंडर्ड को लागू करने के लिए टेक्नोलॉजी का उपयोग करता है. टेक्नोलॉजी बनाने और उसे ट्रेनिंग देने के लिए, हमारी टीमें साथ मिलकर काम करती हैं. यह काम ऐसे होता है.
मॉडल बनाना और पूर्वानुमान लगाना
इस प्रोसेस की शुरुआत हमारी आर्टिफ़िशियल इंटेलिजेंस टीमों के साथ होती है. वे ऐसे मशीन लर्निंग मॉडल बनाती हैं, जो कुछ टास्क पूरे कर सकते हैं, जैसे कि यह पहचानना कि किसी फ़ोटो में क्या चीज़ है या टेक्स्ट को समझना. इसके बाद, डिटेक्शन का दायरा बढ़ाने और हमारी पॉलिसी के एन्फ़ोर्समेंट के लिए ज़िम्मेदार हमारी इंटीग्रिटी टीमें इन मॉडलों के आधार पर और स्पष्ट मॉडल बनाती हैं, जो लोगों और कंटेंट के बारे में पूर्वानुमान लगाते हैं. इन पूर्वानुमानों से हमें अपनी पॉलिसी लागू करने में मदद मिलती है.
उदाहरण के लिए, AI मॉडल यह पूर्वानुमान लगाता है कि किसी कंटेंट में नफ़रत फैलाने वाली भाषा या हिंसक और आपत्तिजनक कंटेंट है या नहीं. हमारी एन्फ़ोर्समेंट टेक्नोलॉजी एक अलग सिस्टम है, जो यह तय करता है कि उसे कंटेंट को डिलीट करने, उसका डिमोशन करने या उसे अतिरिक्त रिव्यू के लिए ह्यूमन रिव्यू टीम के पास भेजने जैसा कोई एक्शन लेना है या नहीं.
दोहराव से सीखना, इंसानों द्वारा वेरिफ़िकेशन
जब हम पहली बार कंटेंट में नियमों के पालन का पता लगाने की नई टेक्नोलॉजी तैयार करते हैं, तब हम उसे कुछ खास सिग्नल ढूँढने के लिए तैयार करते हैं. उदाहरण के लिए, कोई टेक्नोलॉजी फ़ोटो में नग्नता ढूँढती है, जबकि दूसरी कोई टेक्नोलॉजी, टेक्स्ट को समझना सीखती है. शुरुआत में, हो सकता है कि नई टेक्नोलॉजी एकदम सटीकता से यह पता न लगा सके कि किसी कंटेंट से हमारी पॉलिसी का उल्लंघन हो रहा है या नहीं.
इसके बाद, रिव्यू टीमें अपना अंतिम फ़ैसला ले सकती हैं और हमारी टेक्नोलॉजी इंसानों के हर फ़ैसले से सीख सकती है. इंसानों के हज़ारों फ़ैसलों से सीखकर, समय के साथ टेक्नोलॉजी और सटीक होती चली जाती है.
हमारी पॉलिसी भी समय के साथ बेहतर होती चली जाती हैं, ताकि वे हमारे प्रोडक्ट, सामाजिक मानकों और भाषा में आ रहे बदलावों के अनुसार बनी रहें. इसी वजह से, हमारी टेक्नोलॉजी और रिव्यू टीमों दोनों को ट्रेनिंग देना, धीरे-धीरे और बार-बार होने वाला एक प्रोसेस है.
बार-बार होने वाले उल्लंघनों का पता लगाना
टेक्नोलॉजी, एक ही कंटेंट को बहुत अच्छी तरह डिटेक्ट कर सकती है. चाहे वह कितनी भी बार सामने आए. अगर कोई कंटेंट, किसी दूसरे उल्लंघन करने वाले कंटेंट से मैच होता है या उससे बहुत मिलता-जुलता होता है, तो हमारी टेक्नोलॉजी उस कंटेंट पर एक्शन लेती है. यह खासकर वायरल होने वाली गलत जानकारी वाले कैंपेन, मीम और ऐसे अन्य कंटेंट में मददगार होती है, जो बहुत तेज़ी से फैल सकता है.
बारीकी से अंतर करना
टेक्नोलॉजी एक ही कंटेंट को बार-बार ढूँढकर उसे हटा सकती है. लेकिन ऐसी मशीन बनाना एक बड़ी चुनौती है, जो शब्दों के चयन की बारीकियाँ या यह बात समझ सके कि छोटे-छोटे अंतरों से संदर्भ किस तरह बदल सकता है.
Misleading content 1
पहली फ़ोटो में गुमराह करने वाला ओरिजनल कंटेंट है, जिसमें जन स्वास्थ्य सुरक्षा के बारे में गलत जानकारी शामिल है.
Misleading content 2
दूसरी फ़ोटो पहली फ़ोटो का स्क्रीनशॉट है और इसमें सबसे ऊपर कंप्यूटर का मेनू बार दिखाई दे रहा है.
Misleading content 3
अंत में, तीसरी फ़ोटो बिल्कुल पहली और दूसरी फ़ोटो जैसी दिखाई दे रही है, लेकिन इसमें शब्दों में 2 छोटे बदलाव किए गए हैं, जो हेडलाइन को सटीक बनाते हैं और अब यह गलत नहीं है.
इंसानों के लिए इसे समझना काफ़ी आसान है, लेकिन टेक्नोलॉजी के लिए इसका सही मतलब समझना मुश्किल होता है. इसमें किसी भी एक तरफ़ बहुत ज़्यादा गलती होने का जोखिम है. अगर टेक्नोलॉजी बहुत सख्त हुई, तो वह उल्लंघन न करने वाली लाखों पोस्ट को हटा देगी. अगर वह ज़रूरत से कम सख्त हुई, तो वह मेनू बार वाले स्क्रीनशॉट को ओरिजनल फ़ोटो से अलग समझेगी और कंटेंट पर एक्शन नहीं ले पाएगी.
हम इस पर काम करने के लिए काफ़ी समय लगाते हैं. पिछले कुछ सालों में, हमने अपनी टेक्नोलॉजी को कंटेंट में बारीक अंतरों का पता लगाने में बेहतर बनाने के लिए कई निवेश किए हैं. यह नई चीज़ें सीखकर हर दिन और सटीक होती जाती है.
Subtile distinctions