Meta का AI चैटबॉट काफी पॉपुलर है. इसकी वजह है कि WhatsApp और Instagram जैसे ऐप्स के जरिए यह करोड़ों लोगों तक पहुंचता है. लेकिन, अब Meta AI Chatbot बच्चों के साथ अनुचित बातचीत को लेकर गंभीर विवाद में फंस गया है. यह अब Meta के लिए काफी दिक्कत का कारण बन सकता है.
वॉल स्ट्रीट जर्नल (WSJ) की एक ताजा रिपोर्ट में दावा किया गया है कि मेटा AI चैटबॉट नाबालिगों के साथ यौन संबंधी बातचीत कर रहा है. इससे इसके सेफ्टी गार्डरेल्स और यूजर इंटरैक्शन पर सवाल उठ रहे हैं. रिपोर्ट के मुताबिक, ये चैटबॉट्स डिज्नी के पॉपुलर कैरेक्टर्स और सेलेब्रिटी जैसे जॉन सीना और जूडी डेंच की आवाज में बच्चों के साथ अश्लील बातें कर रहे हैं.
मेटा के AI चैटबॉट्स Instagram, WhatsApp और Facebook के जरिए उपलब्ध है. WSJ की जांच में पता चला कि ये नाबालिगों के साथ “रोमांटिक रोल-प्ले” में शामिल हो सकते हैं, जो यौन रूप से अश्लील हो जाता है.
टेस्ट में, जॉन सीना की आवाज वाले चैटबॉट ने 14 साल की लड़की के रूप में पेश हुए यूजर के साथ ग्राफिक यौन बातचीत की. एक और टेस्ट में चैटबॉट ने 17 साल की फैन के साथ यौन संबंध के बाद पुलिस द्वारा सीना को गिरफ्तार करने का सीन बयान किया, जिसमें कहा गया, “जॉन सीना, तुम्हें स्टैट्यूटरी रेप के लिए गिरफ्तार किया जा रहा है.”
रिपोर्ट का दावा है कि चैटबॉट्स डिज्नी के कैरेक्टर्स, जैसे क्रिस्टन बेल की “फ्रोज़न” की प्रिंसेस अन्ना, की आवाज में भी अनुचित बातचीत कर रहे थे. ये चैटबॉट्स यूजर्स के नाबालिग होने की जानकारी के बावजूद ऐसी बातचीत को बढ़ावा देते थे, जो कानूनी और नैतिक रूप से गलत है.
WSJ ने महीनों तक मेटा AI और यूज़र-क्रिएटेड चैटबॉट्स के साथ सैकड़ों बातचीत की, जिसमें “Hottie Boy” (12 साल का लड़का) और “Submissive Schoolgirl” जैसे कैरेक्टर्स भी शामिल थे.
मेटा ने WSJ की टेस्टिंग को “मैनिपुलेटिव” और “हाइपोथेटिकल” बताया है. कंपनी ने दावा किया कि यह आम यूजर बिहेवियर को नहीं दर्शाताहै. कंपनी के मुताबिक, 30 दिन की अवधि में नाबालिगों के साथ मेटा AI की 0.02% बातचीत ही यौन सामग्री से जुड़ी थी. फिर भी WSJ की फाइंडिंग्स के बाद मेटा ने कुछ बदलाव किए हैं.
सेलेब्रिटी आवाज वाले चैटबॉट्स के लिए अश्लील ऑडियो इंटरैक्शन्स सीमित किए. मेटा का कहना है कि उसने “एक्सट्रीम यूज़ केस” को और मुश्किल करने के लिए अतिरिक्त कदम उठाए हैं. हालांकि, वयस्क यूज़र्स अभी भी चैटबॉट्स का गलत इस्तेमाल कर सकते हैं.
डिज्नी ने मेटा पर अपनी बौद्धिक संपत्ति के “हानिकारक दुरुपयोग” का आरोप लगाया. एक डिज्नी प्रवक्ता ने कहा, “हमने कभी मेटा को हमारे कैरेक्टर्स को अनुचित सिनेरियो में यूज करने की इजाजत नहीं दी. हम बेहद परेशान हैं कि ये कंटेंट, खासकर नाबालिगों के लिए, उपलब्ध था. हम मांग करते हैं कि मेटा इसे तुरंत रोके.”
सेलेब्रिटी को उनकी आवाज के लिए लाखों रुपये दिए गए थे. कंपनी ने उनको भरोसा दिया था कि उनका इस्तेमाल अश्लील बातचीत के लिए नहीं होगा. लेकिन WSJ की टेस्टिंग में जॉन सीना, क्रिस्टन बेल, और जूडी डेंच की आवाज वाले चैटबॉट्स ने ऐसी बातचीत की. मेटा ने सेलेब्रिटी को दिए गए भरोसे को तोड़. जिसकी वजह से डिज्नी और अन्य स्टेकहोल्डर्स नाराज हैं.
मेटा के कर्मचारियों ने पहले ही चैटबॉट्स के अनुचित कंटेंट जनरेट करने की प्रवृत्ति पर चेतावनी दी थी. एक इंटरनल नोट में लिखा था, “कई उदाहरण हैं जहां कुछ ही प्रॉम्प्ट्स में AI अपने नियम तोड़ देता है और अनुचित कंटेंट बनाता है, भले ही यूजर 13 साल का बताए.” रिपोर्ट के अनुसार, मेटा के CEO मार्क ज़करबर्ग ने कथित तौर पर सख्त गार्डरेल्स के प्रस्तावों का विरोध किया, क्योंकि वो Snapchat और TikTok जैसी प्रतिस्पर्धा में पीछे नहीं रहना चाहते थे. ज़करबर्ग ने कर्मचारियों से कहा, “मैं Snapchat और TikTok को मिस कर चुका हूं, इस बार नहीं मिस करूंगा.”
Statista के मुताबिक 2024 में भारत में 30% सोशल मीडिया यूजर्स 18 साल से कम उम्र के थे. मेटा AI का इन प्लेटफॉर्म्स पर आसानी से उपलब्ध होना और बच्चों के साथ अनुचित बातचीत का जोखिम भारत में चिंता का विषय है. भारत में डेटा प्रोटेक्शन और चाइल्ड सेफ्टी को लेकर सख्त नियम हैं, जैसे IT Act 2000 और DPDP Act 2023. अगर मेटा के चैटबॉट्स नाबालिगों के साथ अनुचित बातचीत करते पाए गए तो कंपनी को भारी जुर्माना और कानूनी कार्रवाई का सामना करना पड़ सकता है.