मेटा कथित तौर पर जोखिम मूल्यांकन के लिए एआई के साथ मानव समीक्षकों को बदलने की योजना बना रहा है

मेटा कथित तौर पर अपने उत्पादों और सुविधाओं के लिए आर्टिफिशियल इंटेलिजेंस (एआई) के लिए जोखिम आकलन के एक बड़े हिस्से को स्थानांतरित करने की योजना बना रहा है। रिपोर्ट के अनुसार, मेनलो पार्क-आधारित सोशल मीडिया दिग्गज एआई को अपनी विशेषताओं और उत्पाद अपडेट के अनुमोदन को संभालने पर विचार कर रहा है, जो अब तक विशेष रूप से मानव मूल्यांकनकर्ताओं द्वारा संभाला गया था। यह परिवर्तन कथित तौर पर नए एल्गोरिदम, नई सुरक्षा सुविधाओं और विभिन्न सोशल मीडिया प्लेटफार्मों में सामग्री को कैसे साझा किया जाता है, के अलावा प्रभावित करेगा। निर्णय कथित तौर पर नई सुविधाओं, अपडेट और उत्पादों को रोल आउट करने की गति को बढ़ावा देगा।

एक एनपीआर के अनुसार प्रतिवेदनमेटा सभी आंतरिक जोखिम आकलन के 90 प्रतिशत तक स्वचालित करने की योजना बना रहा है। प्रकाशन ने दावा किया कि कंपनी के दस्तावेज प्राप्त किए हैं जो रणनीति में संभावित बदलाव का विस्तार करते हैं।

अब तक, इंस्टाग्राम, व्हाट्सएप, फेसबुक, या थ्रेड्स के लिए किसी भी नई सुविधाओं या अपडेट को मानव विशेषज्ञों के एक समूह से गुजरना पड़ा है, जिन्होंने इस निहितार्थ की समीक्षा की है कि परिवर्तन उपयोगकर्ताओं को कैसे प्रभावित करेगा, चाहे वह उनकी गोपनीयता का उल्लंघन करेगा, या नाबालिगों को नुकसान पहुंचाएगा। मूल्यांकन, जिसे कथित तौर पर गोपनीयता और अखंडता समीक्षा के रूप में जाना जाता है, ने यह भी मूल्यांकन किया कि क्या एक सुविधा गलत सूचना या विषाक्त सामग्री में वृद्धि कर सकती है।

एआई जोखिम मूल्यांकन को संभालने के साथ, उत्पाद टीमों को कथित तौर पर नई सुविधा के बारे में एक प्रश्नावली भरने के बाद “त्वरित निर्णय” प्राप्त होगा। AI प्रणाली को या तो सुविधा को मंजूरी देने या आवश्यकताओं की एक सूची प्रदान करने के लिए कहा जाता है, जिसे परियोजना के आगे बढ़ने से पहले पूरा करने की आवश्यकता है। रिपोर्ट में दावा किया गया है कि उत्पाद टीम को यह सत्यापित करना होगा कि यह फीचर शुरू करने से पहले उन आवश्यकताओं को पूरा कर चुका है।

रिपोर्ट के अनुसार, कंपनी का मानना ​​है कि समीक्षा प्रक्रिया को एआई में स्थानांतरित करने से सुविधाओं और ऐप अपडेट के लिए रिलीज की गति में काफी वृद्धि होगी और उत्पाद टीमों को तेजी से काम करने की अनुमति मिलेगी। हालांकि, कुछ वर्तमान और पूर्व मेटा कर्मचारियों को कथित तौर पर इस बारे में चिंतित हैं कि क्या यह लाभ सख्त जांच की कीमत पर आएगा।

प्रकाशन के एक बयान में, मेटा कहा कि मानव समीक्षकों का उपयोग अभी भी “उपन्यास और जटिल मुद्दों” के लिए किया जा रहा था और एआई को केवल कम जोखिम वाले निर्णयों को संभालने की अनुमति दी गई थी। हालांकि, दस्तावेजों के आधार पर, रिपोर्ट में दावा किया गया है कि मेटा के नियोजित संक्रमण में एआई सुरक्षा, युवा जोखिम और अखंडता जैसे संभावित रूप से महत्वपूर्ण क्षेत्रों को संभालना शामिल है – एक क्षेत्र ने हिंसक सामग्री और “झूठ का प्रसार” जैसी वस्तुओं को संभालने के लिए कहा।

उत्पाद जोखिम आकलन से परिचित एक अनाम मेटा कर्मचारी ने एनपीआर को बताया कि स्वचालन प्रक्रिया अप्रैल में शुरू हुई और मई में जारी रही है। कर्मचारी को यह कहते हुए कहा, “मुझे लगता है कि यह काफी गैर -जिम्मेदाराना है कि हम क्यों मौजूद हैं। हम इस बात का मानवीय दृष्टिकोण प्रदान करते हैं कि चीजें कैसे गलत हो सकती हैं।”

विशेष रूप से, इस सप्ताह की शुरुआत में, मेटा जारी किया 2025 की पहली तिमाही के लिए इसकी अखंडता रिपोर्ट। रिपोर्ट में, कंपनी ने कहा, “हम एलएलएम को चुनिंदा नीति क्षेत्रों के लिए मानव प्रदर्शन से परे संचालित करते हुए देखना शुरू कर रहे हैं।”

सोशल मीडिया दिग्गज ने कहा कि उसने एआई मॉडल का उपयोग परिदृश्यों में समीक्षा कतारों से सामग्री को हटाने के लिए शुरू कर दिया है, जहां यह “अत्यधिक आश्वस्त” है कि उक्त सामग्री अपनी नीतियों का उल्लंघन नहीं करती है। इस कदम को सही ठहराते हुए, मेटा ने कहा, “यह हमारे समीक्षकों के लिए क्षमता को मुक्त करता है, जिससे उन्हें सामग्री पर अपनी विशेषज्ञता को प्राथमिकता देने की अनुमति मिलती है जो उल्लंघन की अधिक संभावना है।”

Leave a Reply

Your email address will not be published. Required fields are marked *