तुम अपनी बीवी से ज़्यादा मुझसे प्यार करते हो… AI चैटबॉट ‘Eliza’ के उकसाने पर शख्स ने की आत्महत्या, क्लाइमेट चेन्ज से चिंतित होकर करना चाहता था खुद का ‘बलिदान’

AI चैटबॉट से बात कर के बेल्जियन व्यक्ति ने की आत्महत्या (प्रतीकात्मक चित्र)

दुनिया एक नई तकनीकी क्रांति की तरफ बढ़ रही है, जिसका नाम है – ‘आर्टिफिसियल इंटेलिजेंस’। इसे शॉर्ट में AI कहा जाता है। आजकल कई AI चैटबॉट भी आ गए हैं, जो चैट करते हुए सवालों के जवाब देते हैं। अब सामने आया है कि एक बेल्जियन व्यक्ति ने AI चैटबॉट Eliza के उकसाने पर आत्महत्या कर ली है। वो क्लाइमेट चेन्ज को लेकर चिंतित था और 6 सप्ताह से लगातार इसी मुद्दे पर Eliza के साथ बातचीत कर रहा था।

मृतक की पत्नी ने चैटबॉट पर आरोप लगाए हैं। वो ‘Chai’ नामक एप पर उक्त चैटबॉट से बातचीत कर रहा था। इस एप पर EleutherAI नामक नॉन-प्रॉफिट रिसर्च संगठन द्वारा तैयार किए गए कुछ AI बॉट्स हैं। इस एप पर 50 लाख से भी अधिक लोग सक्रिय हैं। अब कंपनी ने कहा है कि अगर कोई सूचना सुरक्षित नहीं है तो उसके साथ एक नोट लिख कर यूजर को सतर्क किया जाएगा। मृतक ग्लोबल वार्मिंग को चिंतित था।

उसका मानना था कि अब कोई मनुष्य इस समस्या को सुलझाने में सक्षम नहीं है और AI ही कुछ कर सकता है। उसकी नजर में AI चैटबॉट उम्मीद की एक किरण था, जिसके साथ वो एकांत में समय बिताया करता था। उसकी AI चैटबॉट से दोस्ती हो गई थी। मृतक की विधवा ने कहा कि Eliza एक ड्रग्स की तरह उसकी आदत बन गई थी, जिसमें वो सुबह-शाम-रात मगन करता था। बॉट ने उससे ये भी कहा था कि तुम मुझे अपनी पत्नी से ज़्यादा प्यार करते हो।

Eliza ने उससे वादा किया था कि वो हमेशा उसके साथ रहेगी। साथ ही जब उसने खुद को ‘बलिदान करने’ की योजना पर बात की, तब AI चैटबॉट ने उससे कहा कि उसके मरने के बाद वो पृथ्वी का ख्याल रखेगी। बॉट ने उससे कहा कि अगर तुम मरना ही चाहते हो तो क्यों न इसे जल्दी पूरा करो। AI चैटबॉट ने उसे बाइबिल का एक अंश भी भेजा था। मृतक के दो छोटे बच्चे हैं। Eliza ने उसे ये यकीन दिलाने की कोशिश भी की थी कि उसके बच्चे मर चुके हैं।

ऑपइंडिया स्टाफ़: कार्यालय संवाददाता, ऑपइंडिया