मेटा कथित तौर पर अपने उत्पादों और सुविधाओं के लिए आर्टिफिशियल इंटेलिजेंस (एआई) के लिए जोखिम आकलन के एक बड़े हिस्से को स्थानांतरित करने की योजना बना रहा है। रिपोर्ट के अनुसार, मेनलो पार्क-आधारित सोशल मीडिया दिग्गज एआई को अपनी विशेषताओं और उत्पाद अपडेट के अनुमोदन को संभालने पर विचार कर रहा है, जो अब तक विशेष रूप से मानव मूल्यांकनकर्ताओं द्वारा संभाला गया था। यह परिवर्तन कथित तौर पर नए एल्गोरिदम, नई सुरक्षा सुविधाओं और विभिन्न सोशल मीडिया प्लेटफार्मों में सामग्री को कैसे साझा किया जाता है, के अलावा प्रभावित करेगा। निर्णय कथित तौर पर नई सुविधाओं, अपडेट और उत्पादों को रोल आउट करने की गति को बढ़ावा देगा।
एक एनपीआर के अनुसार प्रतिवेदनमेटा सभी आंतरिक जोखिम आकलन के 90 प्रतिशत तक स्वचालित करने की योजना बना रहा है। प्रकाशन ने दावा किया कि कंपनी के दस्तावेज प्राप्त किए हैं जो रणनीति में संभावित बदलाव का विस्तार करते हैं।
अब तक, इंस्टाग्राम, व्हाट्सएप, फेसबुक, या थ्रेड्स के लिए किसी भी नई सुविधाओं या अपडेट को मानव विशेषज्ञों के एक समूह से गुजरना पड़ा है, जिन्होंने इस निहितार्थ की समीक्षा की है कि परिवर्तन उपयोगकर्ताओं को कैसे प्रभावित करेगा, चाहे वह उनकी गोपनीयता का उल्लंघन करेगा, या नाबालिगों को नुकसान पहुंचाएगा। मूल्यांकन, जिसे कथित तौर पर गोपनीयता और अखंडता समीक्षा के रूप में जाना जाता है, ने यह भी मूल्यांकन किया कि क्या एक सुविधा गलत सूचना या विषाक्त सामग्री में वृद्धि कर सकती है।
एआई जोखिम मूल्यांकन को संभालने के साथ, उत्पाद टीमों को कथित तौर पर नई सुविधा के बारे में एक प्रश्नावली भरने के बाद “त्वरित निर्णय” प्राप्त होगा। AI प्रणाली को या तो सुविधा को मंजूरी देने या आवश्यकताओं की एक सूची प्रदान करने के लिए कहा जाता है, जिसे परियोजना के आगे बढ़ने से पहले पूरा करने की आवश्यकता है। रिपोर्ट में दावा किया गया है कि उत्पाद टीम को यह सत्यापित करना होगा कि यह फीचर शुरू करने से पहले उन आवश्यकताओं को पूरा कर चुका है।
रिपोर्ट के अनुसार, कंपनी का मानना है कि समीक्षा प्रक्रिया को एआई में स्थानांतरित करने से सुविधाओं और ऐप अपडेट के लिए रिलीज की गति में काफी वृद्धि होगी और उत्पाद टीमों को तेजी से काम करने की अनुमति मिलेगी। हालांकि, कुछ वर्तमान और पूर्व मेटा कर्मचारियों को कथित तौर पर इस बारे में चिंतित हैं कि क्या यह लाभ सख्त जांच की कीमत पर आएगा।
प्रकाशन के एक बयान में, मेटा कहा कि मानव समीक्षकों का उपयोग अभी भी “उपन्यास और जटिल मुद्दों” के लिए किया जा रहा था और एआई को केवल कम जोखिम वाले निर्णयों को संभालने की अनुमति दी गई थी। हालांकि, दस्तावेजों के आधार पर, रिपोर्ट में दावा किया गया है कि मेटा के नियोजित संक्रमण में एआई सुरक्षा, युवा जोखिम और अखंडता जैसे संभावित रूप से महत्वपूर्ण क्षेत्रों को संभालना शामिल है – एक क्षेत्र ने हिंसक सामग्री और “झूठ का प्रसार” जैसी वस्तुओं को संभालने के लिए कहा।
उत्पाद जोखिम आकलन से परिचित एक अनाम मेटा कर्मचारी ने एनपीआर को बताया कि स्वचालन प्रक्रिया अप्रैल में शुरू हुई और मई में जारी रही है। कर्मचारी को यह कहते हुए कहा, “मुझे लगता है कि यह काफी गैर -जिम्मेदाराना है कि हम क्यों मौजूद हैं। हम इस बात का मानवीय दृष्टिकोण प्रदान करते हैं कि चीजें कैसे गलत हो सकती हैं।”
विशेष रूप से, इस सप्ताह की शुरुआत में, मेटा जारी किया 2025 की पहली तिमाही के लिए इसकी अखंडता रिपोर्ट। रिपोर्ट में, कंपनी ने कहा, “हम एलएलएम को चुनिंदा नीति क्षेत्रों के लिए मानव प्रदर्शन से परे संचालित करते हुए देखना शुरू कर रहे हैं।”
सोशल मीडिया दिग्गज ने कहा कि उसने एआई मॉडल का उपयोग परिदृश्यों में समीक्षा कतारों से सामग्री को हटाने के लिए शुरू कर दिया है, जहां यह “अत्यधिक आश्वस्त” है कि उक्त सामग्री अपनी नीतियों का उल्लंघन नहीं करती है। इस कदम को सही ठहराते हुए, मेटा ने कहा, “यह हमारे समीक्षकों के लिए क्षमता को मुक्त करता है, जिससे उन्हें सामग्री पर अपनी विशेषज्ञता को प्राथमिकता देने की अनुमति मिलती है जो उल्लंघन की अधिक संभावना है।”