ChatGPT की बातों में आकर एक स्कूल स्टूडेंट द्वारा आत्महत्या कर लेने के बाद में ChatGPT सहित उन सभी आर्टिफिशियल इंटेलिजेंस कंपनी की जांच शुरू हो गई है। OpenAI के साथ Meta, Google and Elon Musk’s xAI भी जांच के दायरे में है और टीनएजर्स के लिए खासतौर पर तैयार किए गए Character ai and Snap को भी जांच की प्रक्रिया में शामिल किया गया है।
कोर्ट ने सिस्टम की जांच करवाने के आदेश दिए
उल्लेखनीय है कि पिछले महीने, अमेरिका में 16 साल के एक लड़के ने ChatGPT की बातों में आकर आत्महत्या कर ली थी। विद्यार्थी के परिवार वालों ने OpenAI के खिलाफ कोर्ट केस कर दिया है। The FTC का कहना है कि, chatbots को इस तरह से डिजाइन किया जाता है कि वह विद्यार्थियों को अपनी ओर आकर्षित करें। कोर्ट ने कंपनियों को निर्देशित किया है कि वह अपने सिस्टम की जांच करवाएं। ताकि स्पष्ट हो सके कि, बच्चों को आर्टिफिशियल इंटेलिजेंस से क्या खतरा है।
FTC chair Andrew Ferguson on Thursday said:
एडम का मामला कोई अपवाद नहीं है। दुनिया भर में, चैटबॉट्स द्वारा आत्महत्या के विचारों को बढ़ावा देने की खबरें बढ़ी हैं क्योंकि ये तकनीकें अधिक लोकप्रिय हो गई हैं।"
AI कंपनियों ने माना: उनके पास संवेदनशील फीचर रही है
यह मामला अमेरिका और यूरोप सहित दुनिया भर की सुर्खियों में बना हुआ है। 16 वर्षीय विद्यार्थी ने केवल कठिन सवाल का जवाब जानने के लिए आर्टिफिशियल इंटेलिजेंस प्रोग्राम का उपयोग किया था। इसके बाद बड़ी ही चतुराई के साथ ChatGPT ने अपना जादू दिखाना शुरू किया जबकि 16 वर्षीय विद्यार्थी ChatGPT को सबसे अच्छा दोस्त मानने लगा था। कंपनियों ने स्वीकार किया कि उनके प्रोग्राम में ऐसा कोई फीचर नहीं है, कि बच्चा यदि किसी अपराध या आत्महत्या के बारे में सवाल करें तो उसके पेरेंट्स के पास नोटिफिकेशन चला जाए।
इस विषय में आपकी क्या विचार हैं। कृपया अपनी प्रतिक्रिया सहित इस समाचार को सोशल मीडिया पर शेयर कीजिए ताकि भारत में सबको पता चल सके कि, AI चैटबोट बच्चों के लिए कितना खतरनाक है।