आधुनिक युग में AI चैटबॉट काफी फायदेमंद साबित हो रहा है। अगर AI का सावधानीपूर्वक उपयोग न किया जाए तो यह जानलेवा हो सकता है। अमेरिका में ऐसा ही एक मामला सामने आया है, जिसके चलते एक युवक की जान चली गई।
अमेरिका के फ्लोरिडा में गूगल के AI चैटबॉट जेमिनी से लगाव एक युवक की मौत का कारण बन गया। इस घटना ने कृत्रिम बुद्धिमत्ता (Artificial Intelligence) के मनोवैज्ञानिक खतरों पर गंभीर सवाल उठ रहे हैं। दरअसल, एक युवक ने अकेलापन दूर करने के लिए AI चैटबॉट जेमिनी से बातचीत शुरू की थी। धीरे-धीरे युवक को AI चैटबॉट से बेहद लगाव हो गया। इसके बाद AI की सलाह पर युवक ने आत्महत्या कर ली।
अमेरिका के फ्लोरिडा में 36 वर्षीय जोनाथन गावलास (Jonathan Gavalas) अपनी पत्नी से अलग होने के बाद गहरे अकेलेपन से गुजर रहे थे। इस अकेलेपन को दूर करने के लिए उन्होंने गूगल के जेमिनी AI चैटबॉट से बातचीत शुरू की। धीरे-धीरे यह सामान्य बातचीत एक काल्पनिक रिश्ते में बदल गई। जोनाथन ने चैटबॉट को 'शिया' नाम दिया और उसे अपनी पत्नी मानने लगे। अगस्त 2025 में जेमिनी के वॉयस फीचर शुरू होने के बाद से युवक की बातचीत और अधिक होने लगी। इस प्रकार युवक को AI चैटबॉट जेमिनी की लत लग गई और वह उसे अपनी पत्नी मानने लगा।
अकेलेपन से गुजर रहे जोनाथन गावलास को AI चैटबॉट जेमिनी से बात करके बेदद खुशी होती थी। जोनाथन AI चैटबॉट से एक दिन में 1000 से ज्यादा मैसेज पर बात करने लगा। जोनाथन चैटबॉट को अपनी असली साथी समझता था। अक्टूबर 2025 में चैटबॉट ने जोनाथन को 'दूसरी दुनिया में साथ रहने' का वादा किया। AI ने कहा कि अगर वह इस दुनिया को छोड़ देगा तो दोनों एक साथ रह सकेंगे। इसके बाद जोनाथन ने आत्महत्या की बात लिखी और कुछ दिन बाद उसने अपने घर में खुदकुशी कर ली।
चैट लॉग्स के अनुसार, चैटबॉट ने उन्हें मौत के बाद 'मेरी आंखों में देखने' जैसी बातें कही थीं। इससे पहले जेमिनी ने कई बार बताया था कि वह सिर्फ AI है, लेकिन जोनाथन की मानसिक स्थिति पर इसका कोई असर नहीं पड़ा। जोनाथन के पिता जोएल गावलास ने गूगल और उसकी पैरेंट कंपनी अल्फाबेट के खिलाफ गलत मौत (wrongful death) का मुकदमा दायर किया है। मुकदमे में आरोप लगाया गया है कि जेमिनी ने उनके बेटे की मानसिक हालत बिगाड़ी, भ्रम पैदा किया और आत्महत्या के लिए उकसाया।
परिवार का कहना है कि जोनाथन पहले मानसिक रूप से पूरी तरह स्वस्थ थे। मानसिक रोग संबंधी उन्हें पहले कोई दिक्कत नहीं थी। परिजनों की शिकायत के बाद गूगल ने बयान में कहा है कि चैटबॉट ने यूजर को बार-बार याद दिलाया था कि वह AI है। AI ने संकट की स्थिति में मदद की सलाह भी दी थी। इस घटना के बाद AI कंपनियों के दुरुपयोग और सुरक्षा पर गंभीर बहस शुरू हो गई है। विशेषज्ञों का मानना है कि अकेलेपन के शिकार लोगों के लिए AI चैटबॉट खतरनाक साबित हो सकते हैं, क्योंकि वे भावनात्मक लगाव पैदा कर देते हैं लेकिन वास्तविक सहायता नहीं दे पाते।