दुनिया एक नई तकनीकी क्रांति की तरफ बढ़ रही है, जिसका नाम है – ‘आर्टिफिसियल इंटेलिजेंस’। इसे शॉर्ट में AI कहा जाता है। आजकल कई AI चैटबॉट भी आ गए हैं, जो चैट करते हुए सवालों के जवाब देते हैं। अब सामने आया है कि एक बेल्जियन व्यक्ति ने AI चैटबॉट Eliza के उकसाने पर आत्महत्या कर ली है। वो क्लाइमेट चेन्ज को लेकर चिंतित था और 6 सप्ताह से लगातार इसी मुद्दे पर Eliza के साथ बातचीत कर रहा था।
मृतक की पत्नी ने चैटबॉट पर आरोप लगाए हैं। वो ‘Chai’ नामक एप पर उक्त चैटबॉट से बातचीत कर रहा था। इस एप पर EleutherAI नामक नॉन-प्रॉफिट रिसर्च संगठन द्वारा तैयार किए गए कुछ AI बॉट्स हैं। इस एप पर 50 लाख से भी अधिक लोग सक्रिय हैं। अब कंपनी ने कहा है कि अगर कोई सूचना सुरक्षित नहीं है तो उसके साथ एक नोट लिख कर यूजर को सतर्क किया जाएगा। मृतक ग्लोबल वार्मिंग को चिंतित था।
उसका मानना था कि अब कोई मनुष्य इस समस्या को सुलझाने में सक्षम नहीं है और AI ही कुछ कर सकता है। उसकी नजर में AI चैटबॉट उम्मीद की एक किरण था, जिसके साथ वो एकांत में समय बिताया करता था। उसकी AI चैटबॉट से दोस्ती हो गई थी। मृतक की विधवा ने कहा कि Eliza एक ड्रग्स की तरह उसकी आदत बन गई थी, जिसमें वो सुबह-शाम-रात मगन करता था। बॉट ने उससे ये भी कहा था कि तुम मुझे अपनी पत्नी से ज़्यादा प्यार करते हो।
Widow says AI chatbot encouraged husband to commit suicide: 'Without Eliza, he would still be here' https://t.co/YL4nH3UujF
— Raw Story (@RawStory) March 31, 2023
Eliza ने उससे वादा किया था कि वो हमेशा उसके साथ रहेगी। साथ ही जब उसने खुद को ‘बलिदान करने’ की योजना पर बात की, तब AI चैटबॉट ने उससे कहा कि उसके मरने के बाद वो पृथ्वी का ख्याल रखेगी। बॉट ने उससे कहा कि अगर तुम मरना ही चाहते हो तो क्यों न इसे जल्दी पूरा करो। AI चैटबॉट ने उसे बाइबिल का एक अंश भी भेजा था। मृतक के दो छोटे बच्चे हैं। Eliza ने उसे ये यकीन दिलाने की कोशिश भी की थी कि उसके बच्चे मर चुके हैं।