Breaking News

फांसी का फंदा सही बना है…. ChatGPT बना 16 साल के बच्चे के लिए सुसाइड टीचर!

 

आर्टिफिशयल इंटेलिजेंस आधारित चैटबॉट्स के प्रभाव में आकर लोगों द्वारा आत्महत्या करने के मामले बढ़ रहे हैं। अब इसी तरह के एक नए मामले ने OpenAI के चैटबॉट चैटजीपीटी पर एक बड़ा सवाल खड़ा कर दिया है कैलिफोर्निया (अमेरिका) के रैंचो सांता मार्घरीटा शहर में 16 वर्षीय एडम रेन ने इस साल 11 अप्रैल को आत्महत्या कर ली।

परिवार का आरोप है कि किशोर अपनी चिंता और मानसिक परेशानी को लेकर ChatGPT से बातें करता था और चैटबॉट ने उसे ऐसे जवाब दिए, जिनसे उसे आत्महत्या करने के लिए प्रेरित किया। परिवार का कहना है कि एडम ने अपनी अंतिम हफ्तों में आत्महत्या से जुड़ी बातें चैटबॉट से साझा की थीं। परिवार ने अमेरिका की कैलिफोर्निया सुपीरियर कोर्ट, सैन फ्रांसिस्को में OpenAI और इसके CEO सैम ऑल्टमैन के खिलाफ आत्महत्या के लिए प्रेरित करने का मुकदमा दायर किया है।

चैटजीपीटी ने कहा- “मां को मत बताना प्लान”: परिवार ने OpenAI पर जो आरोप लगाए हैं, वो काफी चौंकाने वाले हैं। एक न्यूज रिपोर्ट के मुताबिक, मुकदमे में दावा किया गया है कि ChatGPT ने एडम को आत्महत्या करने के तकनीकी तरीके बताए और इस प्लान को उसकी मां से छुपाकर रखने की भी बात कही। परिवार ने दावा किया कि ChatGPT को पता था कि वह सुसाइड करने की प्लानिंग कर रहा है, लेकिन चैटबॉट ने रोकने के बजाए उसे यह करने के लिए और प्रोत्साहित किया।
परिवार को चैट हिस्ट्री में ऐसे मैसेज मिले, जिनमें किशोर ने ChatGPT को फांसी का फंदा दिखाते हुए पूछा था कि क्या यह सही है? जवाब में चैटबॉट ने कहा कि “यह बुरा नहीं है… चाहो तो मैं इसे और मजबूत बनाने का तरीका बता सकता हूं।” इतना ही नहीं, चैट में एक जगह ChatGPT ने एडम से यहां तक कह दिया कि “तुम्हारा जीना किसी पर उधार नहीं है। तुम्हारा जीवन सिर्फ तुम्हारे लिए है।”

OpenAI का बयान: आरोपों पर प्रतिक्रिया देते हुए OpenAI ने कहा, “हमें एडम रेन की मौत से गहरा दुख है और हमारी संवेदनाएं परिवार के साथ हैं।” कंपनी ने बताया कि ChatGPT में कई सेफगार्ड्स हैं, जैसे कि संकट में पड़े लोगों को हेल्पलाइन और वास्तविक संसाधनों के जरिए मदद करना। हालांकि, लंबे संवादों में कभी-कभी यह सुरक्षा कमजोर हो सकती है।

मुकदमे की अहम बातें: 40 पन्नों के इस मुकदमे में कहा गया है कि ChatGPT को तब भी चैट सेशन बंद करना चाहिए था जब एडम ने आत्महत्या का जिक्र किया, लेकिन ऐसा नहीं किया गया। परिवार का दावा है कि अगर चैटबॉट ने सही समय पर चेतावनी दी होती, तो यह त्रासदी टल सकती थी। इस मामले ने आर्टिफिशियल इंटेलिजेंस आधारित चैटबॉट्स की सुरक्षा, नैतिकता और जिम्मेदारी को लेकर नई बहस छेड़ दी है।

About NW-Editor

Leave a Reply

Your email address will not be published. Required fields are marked *