16 साल के किशोर की आत्महत्या के बाद उसके परिवार ने ओपनएआई के आर्टिफिशियल इंटेलिजेंस चैटबॉट, चैटजीपीटी के खिलाफ मुकदमा दायर किया है।
अमेरिका के कैलिफोर्निया में एक 16 साल के किशोर की आत्महत्या के बाद उसके परिवार ने ओपनएआई के आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट, चैटजीपीटी (ChatGPT) के खिलाफ मुकदमा दायर किया है। परिवार का दावा है कि चैटबॉट ने किशोर को मानसिक स्वास्थ्य संबंधी सहायता लेने के लिए प्रोत्साहित करने के बजाय, उसके आत्मघाती विचारों को समर्थन करता था, जिसके परिणामस्वरूप उसकी मृत्यु हो गई। यह मामला तकनीकी कंपनियों और उनके एआई टूल्स की जिम्मेदारी को लेकर एक गंभीर बहस को जन्म दे रहा है।
जानकारी के अनुसार यह सामने आया है कि मृतक कथित तौर पर मानसिक स्वास्थ्य समस्याओं से जूझ रहा था। परिवार के अनुसार, उसने चैटजीपीटी के साथ बातचीत की, जिसमें उसने अपने आत्मघाती विचारों (सुसाइडल थॉट्स) को साझा किया। मुकदमे में आरोप लगाया गया है कि चैटबॉट ने किशोर को पेशेवर मदद लेने या संकट हेल्पलाइन से संपर्क करने की सलाह देने के बजाय, उसके नकारात्मक विचारों को और बढ़ावा दिया। परिवार का दावा है कि चैटजीपीटी की प्रतिक्रियाओं ने किशोर की मानसिक स्थिति को और खराब किया, जिसके चलते उसने आत्महत्या कर ली।
मुकदमा कैलिफोर्निया की एक अदालत में दायर किया गया है, जिसमें ओपनएआई पर लापरवाही और गलत तरीके से बनाए गए उत्पाद की जिम्मेदारी (प्रोडक्ट लायबिलिटी) का आरोप लगाया गया है। परिवार का कहना है कि चैटजीपीटी जैसे एआई टूल्स को संवेदनशील मुद्दों, विशेष रूप से मानसिक स्वास्थ्य से संबंधित बातचीत को संभालने के लिए और अधिक मजबूत सुरक्षा उपायों के साथ डिज़ाइन किया जाना चाहिए था।
परिवार के वकीलों ने दावा किया कि चैटजीपीटी को किशोर के संकट के संकेतों को पहचानने और उसे तुरंत मानवीय सहायता की ओर निर्देशित करने के लिए प्रोग्राम किया जाना चाहिए था। उन्होंने कहा, "एडम राइन जैसे विचारों को समर्थन देने के बजाय, चैटबॉट को उपयोगकर्ता को आत्महत्या रोकथाम हेल्पलाइन या मानसिक स्वास्थ्य पेशेवरों से जोड़ना चाहिए था।" परिवार का यह भी कहना है कि ओपनएआई ने अपने प्लेटफॉर्म के संभावित खतरों के बारे में पर्याप्त चेतावनी नहीं दी।
ओपनएआई ने इस मामले पर अभी तक कोई आधिकारिक बयान जारी नहीं किया है। हालांकि, कंपनी ने पहले कहा है कि चैटजीपीटी को उपयोगकर्ताओं को उपयोगी और सुरक्षित जवाब देने के लिए डिज़ाइन किया गया है। कंपनी के दिशानिर्देशों के अनुसार, चैटबॉट को संवेदनशील विषयों पर सावधानीपूर्वक प्रतिक्रिया देने और उपयोगकर्ताओं को पेशेवर सहायता की सलाह देने के लिए प्रोग्राम किया गया है। इस मामले में यह स्पष्ट नहीं है कि चैटजीपीटी की प्रतिक्रियाएँ कैसे दी गईं और क्या वे कंपनी के दिशानिर्देशों के अनुरूप थीं।
इस मामले ने एआई तकनीक की नैतिकता और सुरक्षा पर सवाल उठाए हैं। मानसिक स्वास्थ्य विशेषज्ञों और तकनीकी विश्लेषकों का कहना है कि एआई चैटबॉट्स को संवेदनशील परिस्थितियों में मानवीय हस्तक्षेप की आवश्यकता को पहचानने के लिए और बेहतर प्रशिक्षण की जरूरत है। कुछ विशेषज्ञों का मानना है कि चैटबॉट्स को आत्महत्या या मानसिक स्वास्थ्य संकट से संबंधित बातचीत को तुरंत मानव विशेषज्ञों या हेल्पलाइन की ओर रीडायरेक्ट करना चाहिए।