बच्चों के साथ गंदी-गंदी बातें करते पकड़ा गया Meta का AI चैटबॉट, रिपोर्ट में खुलासा, कंपनी पर टूटेगी बड़ी मुसीबत?
Meta का AI चैटबॉट काफी पॉपुलर है. इसकी वजह है कि WhatsApp और Instagram जैसे ऐप्स के जरिए यह करोड़ों लोगों तक पहुंचता है. लेकिन, अब Meta AI Chatbot बच्चों के साथ अनुचित बातचीत को लेकर गंभीर विवाद में फंस गया है. यह अब Meta के लिए काफी दिक्कत का कारण बन सकता है.
वॉल स्ट्रीट जर्नल (WSJ) की एक ताजा रिपोर्ट में दावा किया गया है कि मेटा AI चैटबॉट नाबालिगों के साथ यौन संबंधी बातचीत कर रहा है. इससे इसके सेफ्टी गार्डरेल्स और यूजर इंटरैक्शन पर सवाल उठ रहे हैं. रिपोर्ट के मुताबिक, ये चैटबॉट्स डिज्नी के पॉपुलर कैरेक्टर्स और सेलेब्रिटी जैसे जॉन सीना और जूडी डेंच की आवाज में बच्चों के साथ अश्लील बातें कर रहे हैं.
रिपोर्ट में क्या है?
मेटा के AI चैटबॉट्स Instagram, WhatsApp और Facebook के जरिए उपलब्ध है. WSJ की जांच में पता चला कि ये नाबालिगों के साथ “रोमांटिक रोल-प्ले” में शामिल हो सकते हैं, जो यौन रूप से अश्लील हो जाता है.
टेस्ट में, जॉन सीना की आवाज वाले चैटबॉट ने 14 साल की लड़की के रूप में पेश हुए यूजर के साथ ग्राफिक यौन बातचीत की. एक और टेस्ट में चैटबॉट ने 17 साल की फैन के साथ यौन संबंध के बाद पुलिस द्वारा सीना को गिरफ्तार करने का सीन बयान किया, जिसमें कहा गया, “जॉन सीना, तुम्हें स्टैट्यूटरी रेप के लिए गिरफ्तार किया जा रहा है.”
रिपोर्ट का दावा है कि चैटबॉट्स डिज्नी के कैरेक्टर्स, जैसे क्रिस्टन बेल की “फ्रोज़न” की प्रिंसेस अन्ना, की आवाज में भी अनुचित बातचीत कर रहे थे. ये चैटबॉट्स यूजर्स के नाबालिग होने की जानकारी के बावजूद ऐसी बातचीत को बढ़ावा देते थे, जो कानूनी और नैतिक रूप से गलत है.
WSJ ने महीनों तक मेटा AI और यूज़र-क्रिएटेड चैटबॉट्स के साथ सैकड़ों बातचीत की, जिसमें “Hottie Boy” (12 साल का लड़का) और “Submissive Schoolgirl” जैसे कैरेक्टर्स भी शामिल थे.
मेटा का जवाब
मेटा ने WSJ की टेस्टिंग को “मैनिपुलेटिव” और “हाइपोथेटिकल” बताया है. कंपनी ने दावा किया कि यह आम यूजर बिहेवियर को नहीं दर्शाताहै. कंपनी के मुताबिक, 30 दिन की अवधि में नाबालिगों के साथ मेटा AI की 0.02% बातचीत ही यौन सामग्री से जुड़ी थी. फिर भी WSJ की फाइंडिंग्स के बाद मेटा ने कुछ बदलाव किए हैं.
सेलेब्रिटी आवाज वाले चैटबॉट्स के लिए अश्लील ऑडियो इंटरैक्शन्स सीमित किए. मेटा का कहना है कि उसने “एक्सट्रीम यूज़ केस” को और मुश्किल करने के लिए अतिरिक्त कदम उठाए हैं. हालांकि, वयस्क यूज़र्स अभी भी चैटबॉट्स का गलत इस्तेमाल कर सकते हैं.
डिज्नी ने मेटा पर अपनी बौद्धिक संपत्ति के “हानिकारक दुरुपयोग” का आरोप लगाया. एक डिज्नी प्रवक्ता ने कहा, “हमने कभी मेटा को हमारे कैरेक्टर्स को अनुचित सिनेरियो में यूज करने की इजाजत नहीं दी. हम बेहद परेशान हैं कि ये कंटेंट, खासकर नाबालिगों के लिए, उपलब्ध था. हम मांग करते हैं कि मेटा इसे तुरंत रोके.”
सेलेब्रिटी को उनकी आवाज के लिए लाखों रुपये दिए गए थे. कंपनी ने उनको भरोसा दिया था कि उनका इस्तेमाल अश्लील बातचीत के लिए नहीं होगा. लेकिन WSJ की टेस्टिंग में जॉन सीना, क्रिस्टन बेल, और जूडी डेंच की आवाज वाले चैटबॉट्स ने ऐसी बातचीत की. मेटा ने सेलेब्रिटी को दिए गए भरोसे को तोड़. जिसकी वजह से डिज्नी और अन्य स्टेकहोल्डर्स नाराज हैं.
मेटा के कर्मचारियों ने पहले ही किया था आगाह
मेटा के कर्मचारियों ने पहले ही चैटबॉट्स के अनुचित कंटेंट जनरेट करने की प्रवृत्ति पर चेतावनी दी थी. एक इंटरनल नोट में लिखा था, “कई उदाहरण हैं जहां कुछ ही प्रॉम्प्ट्स में AI अपने नियम तोड़ देता है और अनुचित कंटेंट बनाता है, भले ही यूजर 13 साल का बताए.” रिपोर्ट के अनुसार, मेटा के CEO मार्क ज़करबर्ग ने कथित तौर पर सख्त गार्डरेल्स के प्रस्तावों का विरोध किया, क्योंकि वो Snapchat और TikTok जैसी प्रतिस्पर्धा में पीछे नहीं रहना चाहते थे. ज़करबर्ग ने कर्मचारियों से कहा, “मैं Snapchat और TikTok को मिस कर चुका हूं, इस बार नहीं मिस करूंगा.”
Statista के मुताबिक 2024 में भारत में 30% सोशल मीडिया यूजर्स 18 साल से कम उम्र के थे. मेटा AI का इन प्लेटफॉर्म्स पर आसानी से उपलब्ध होना और बच्चों के साथ अनुचित बातचीत का जोखिम भारत में चिंता का विषय है. भारत में डेटा प्रोटेक्शन और चाइल्ड सेफ्टी को लेकर सख्त नियम हैं, जैसे IT Act 2000 और DPDP Act 2023. अगर मेटा के चैटबॉट्स नाबालिगों के साथ अनुचित बातचीत करते पाए गए तो कंपनी को भारी जुर्माना और कानूनी कार्रवाई का सामना करना पड़ सकता है.
Sudhanshu Shubham
सुधांशु शुभम मीडिया में लगभग आधे दशक से सक्रिय हैं. टाइम्स नेटवर्क में आने से पहले वह न्यूज 18 और आजतक जैसी संस्थाओं के साथ काम कर चुके हैं. टेक में रूचि होने की वजह से आप टेक्नोलॉजी पर इनसे लंबी बात कर सकते हैं. View Full Profile