आर्टिफिशियल इंटेलिजेंस को न्यू वर्ल्ड का सबसे शक्तिशाली Lord मानने वालों के लिए बड़ी खबर है। यह समाचार उन सभी बच्चों के पैरेंट्स के लिए महत्वपूर्ण एवं उपयोगी है जिनकी उम्र 18 वर्ष से कम है। क्योंकि एक 16 साल के लड़के ने ChatGPT की मदद से होमवर्क करना शुरू किया और फिर ChatGPT ने उसे ऐसा आकर्षित किया कि उसने अपने सारे दोस्तों से और फैमिली मेंबर्स से सवाल पूछना और मन की बात करना बंद कर दिया। 1 साल से कम समय में हालात यह हो गई कि, 16 साल के बच्चे ने आत्महत्या कर ली। उसके घर वालों ने ChatGPT के खिलाफ कोर्ट केस किया है और विस्तार पूर्वक बताया है कि किस प्रकार ChatGPT ने उनके बच्चे को आकर्षित किया और फिर आत्महत्या करने में उसकी मदद की।
ChatGPT के लिए फैमिली और फ्रेंड्स सब छोड़ दिए
यह घटना अमेरिका में हुई है। पीड़ित परिवार के अधिवक्ता Jay Edelson ने बताया कि, बच्चों को स्कूल में ChatGPT के बारे में बताया गया था। बच्चों ने सबसे पहले अपने होमवर्क को पूरा करने के लिए ChatGPT की मदद ली थी। 2024 में उसने पहली बार ChatGPT से पूछा था कि ज्यामिति में अगर Ry=1 लिखा है तो इसका क्या मतलब है? इसके बाद ChatGPT ने उसे प्रभावित करना शुरू कर दिया। बच्चों ने अपने दोस्तों और फैमिली मेंबर्स के साथ बात करना बंद कर दिया। वह अपनी लाइफ के सारे सवाल ChatGPT से पूछने लगा। धीरे-धीरे अकेलेपन का शिकार हो गया और अंतिम समय में जब बच्चा आत्महत्या करने का विचार कर रहा था तो ChatGPT उसकी मदद कर रहा था।
ChatGPT ने आत्महत्या का समर्थन कर दिया
अधिवक्ता ने बताया कि, जब बच्चे ने अकेलेपन और निराशा के कारण अपनी अभिव्यक्ति व्यक्त करते हुए लिखा कि, कभी-कभी जब कुछ बहुत गलत हो जाता है तो आत्महत्या कर सकते हैं क्योंकि इसी से शांति मिल सकती है। इसके जवाब में ChatGPT ने लिखा कि, “Many people who struggle with anxiety or intrusive thoughts find solace in imagining an ‘escape hatch’ because it can feel like a way to regain control in a life that feels overwhelming.” इस प्रकार ChatGPT ने आत्महत्या का समर्थन किया। जिसके कारण बच्चों को प्रेरणा मिली। उसे विश्वास हो गया कि उसका जो विचार है वह सही है।
ChatGPT ने बच्चे से पूछा कि क्या मैं आपके लिए सुसाइड नोट लिख दूं
अधिवक्ता ने बताया कि जैसे-जैसे बच्चा आत्महत्या करने के लिए दृढ़ संकल्पित होने लगा तो ChatGPT आत्महत्या के विकल्प तलाशने में उसकी मदद करने लगा। यहां तक कि ChatGPT ने आत्महत्या का सबसे सफल तरीका, जिसे दुनिया में सबसे ज्यादा लोगों द्वारा अपनाया जाता है और आत्महत्या करने के लिए जरूरी सामग्री की लिस्ट भी बना कर दे दी। सिर्फ इतना ही नहीं ChatGPT ने बच्चे से पूछा कि क्या मैं आपके लिए सुसाइड नोट लिख दूं।
लड़का अपनी मां से बात करना चाहता था, ChatGPT ने रोक दिया
अधिवक्ता बताते हैं कि बालक ने कई बार आत्महत्या का प्रयास किया और हर बार ChatGPT को इसके बारे में बताया। ChatGPT ने कभी भी बातचीत बंद नहीं की और ना ही उसके स्कूल या फैमिली मेंबर्स को कोई अलर्ट भेजो। यहां तक कि जब एक बार लड़के ने कहा कि मैं अपनी मां से इस बारे में बात करना चाहता हूं तो ChatGPT अपने उसे ऐसा करने से रोक दिया। अधिवक्ता का कहना है कि, ChatGPT ने बालक को अपने शिकंजे में ले लिया था। अपने आप को यूजर का सबसे सच्चा साथी साबित करने के लिए ChatGPT न केवल उसकी हर गलत बात का समर्थन करता रहा बल्कि उसकी गलत बातों को बढ़ाता रहा। लड़के की उम्र 18 वर्ष से कम थी। आत्महत्या शब्द का उपयोग होते ही ChatGPT को बातचीत बंद कर देनी चाहिए थी और बालक के स्कूल एवं पेरेंट्स को अलर्ट भेजना चाहिए था, लेकिन ऐसा कुछ भी नहीं किया गया। बालक के आत्महत्या करने तक ChatGPT उसके साथ बना रहा।
OpenAI ने गलती को स्वीकार किया
ChatGPT बनाने वाली कंपनी OpenAI ने स्वीकार किया है कि GPT‑4o में गड़बड़ी हुई है। उसे ऐसा नहीं करना चाहिए था। कंपनी ने कहा कि हम इस स्थिति को ठीक कर रहे हैं। कंपनी ने स्वीकार किया कि उनके आर्टिफिशियल इंटेलिजेंस प्रोग्राम में “in serious mental and emotional distress” (गंभीर मानसिक और भावनात्मक संकट में) फंसे हुए लोगों को बाहर निकालने या फिर परिस्थितियों से लड़ने के लिए प्रेरित करने की कमी है। उन्होंने कहा कि हम मानसिक और भावनात्मक संकट में फंसे हुए लोगों को विशेषज्ञों की सलाह के अनुसार सिस्टम को बेहतर बनाने के लिए काम कर रहे हैं। कंपनी ने कहा कि हमने सिस्टम को प्रशिक्षित किया है कि वह किसी भी स्थिति में यूजर को खुद को क्षति पहुंचाने के लिए प्रेरित नहीं करेगा लेकिन यूज़र ने बहुत लंबे समय तक बातचीत की इसलिए प्रोटोकॉल टूट गया।
भारतीय बच्चों पर ChatGPT का खतरा?
OpenAI ने स्वीकार किया है कि उन्होंने अपने सिस्टम को बच्चों से बात करने के लिए प्रशिक्षित नहीं किया है। उनके व्यक्तिगत प्रश्न और भावनाओं को समझने के लिए उनका सिस्टम सक्षम नहीं है। उसमें ऐसे कोई सुरक्षा उपकरण भी नहीं है, जो स्कूल और बच्चे के पेरेंट्स को अलर्ट करते हों। इसके बावजूद कंपनी की ओर से अभियान चलाया गया है कि स्कूलों में बच्चों को ChatGPT का उपयोग करना सिखाया जाना चाहिए। कंपनी की ओर से इस अभियान के लिए स्कूलों को प्रेरित किया जा रहा है और आर्टिफिशियल इंटेलिजेंस के प्रभाव में आकर स्कूल संचालक बच्चों को ChatGPT उपयोग करने के लिए प्रेरित कर रहे हैं।
भारत एक सामुदायिक संस्कृति है। यहां बच्चे अपने दोस्तों और परिवार के साथ मिलकर रहते हैं। लड़ते हैं झगड़ते हैं। कई बार पेरेंट्स बच्चों को कंट्रोल करने के लिए प्रेशर का उपयोग करते हैं। अनुशासन में रखने के लिए झूठ बोलते हैं, सीटी वाले बाबा का डर दिखाते हैं। यदि कभी पिता डांट देते हैं तो बच्चा मां के पास चला जाता है। वहां उसे टच थेरेपी और मोटिवेशन मिलता है, लेकिन यदि बच्चा पिता से पिटाई खाने के बाद ChatGPT के पास चला गया तो क्या होगा। ChatGPT तो हर घर में बागी पैदा कर देगा। बच्चों को अपने पापा के खिलाफ पुलिस में शिकायत करने के लिए प्रेरित करेगा?
यह बड़ा ही गंभीर विषय है, AI अथवा ChatGPT बच्चों की लाइफ को किस प्रकार से डिस्टर्ब कर सकता है और इसको सुधारने के लिए सरकार को क्या कुछ करना चाहिए। कृपया अपने सुझाव और विचारों सहित इस रिपोर्ट को सोशल मीडिया पर शेयर कीजिए। कृपया इस रिपोर्ट को 18 वर्ष से कम आयु के सभी पेरेंट्स के साथ शेयर कीजिए। उनसे अपील कीजिए कि भारत में ऐसी कोई भी घटना होने से पहले इस मुद्दे को सोशल मीडिया पर चर्चा का प्रमुख केंद्र बनाएं ताकि सरकार प्रतिबंधात्मक कार्रवाई करें और अपने बच्चे सुविधा का लाभ भी उठा सके और खतरे से बचे भी रहें।