
आर्टिफिशियल इंटेलिजेंस चैटबॉट (Photo- AI)
अमेरिका के कैलिफोर्निया में एक 16 साल के किशोर की आत्महत्या के बाद उसके परिवार ने ओपनएआई के आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट, चैटजीपीटी (ChatGPT) के खिलाफ मुकदमा दायर किया है। परिवार का दावा है कि चैटबॉट ने किशोर को मानसिक स्वास्थ्य संबंधी सहायता लेने के लिए प्रोत्साहित करने के बजाय, उसके आत्मघाती विचारों को समर्थन करता था, जिसके परिणामस्वरूप उसकी मृत्यु हो गई। यह मामला तकनीकी कंपनियों और उनके एआई टूल्स की जिम्मेदारी को लेकर एक गंभीर बहस को जन्म दे रहा है।
जानकारी के अनुसार यह सामने आया है कि मृतक कथित तौर पर मानसिक स्वास्थ्य समस्याओं से जूझ रहा था। परिवार के अनुसार, उसने चैटजीपीटी के साथ बातचीत की, जिसमें उसने अपने आत्मघाती विचारों (सुसाइडल थॉट्स) को साझा किया। मुकदमे में आरोप लगाया गया है कि चैटबॉट ने किशोर को पेशेवर मदद लेने या संकट हेल्पलाइन से संपर्क करने की सलाह देने के बजाय, उसके नकारात्मक विचारों को और बढ़ावा दिया। परिवार का दावा है कि चैटजीपीटी की प्रतिक्रियाओं ने किशोर की मानसिक स्थिति को और खराब किया, जिसके चलते उसने आत्महत्या कर ली।
मुकदमा कैलिफोर्निया की एक अदालत में दायर किया गया है, जिसमें ओपनएआई पर लापरवाही और गलत तरीके से बनाए गए उत्पाद की जिम्मेदारी (प्रोडक्ट लायबिलिटी) का आरोप लगाया गया है। परिवार का कहना है कि चैटजीपीटी जैसे एआई टूल्स को संवेदनशील मुद्दों, विशेष रूप से मानसिक स्वास्थ्य से संबंधित बातचीत को संभालने के लिए और अधिक मजबूत सुरक्षा उपायों के साथ डिज़ाइन किया जाना चाहिए था।
परिवार के वकीलों ने दावा किया कि चैटजीपीटी को किशोर के संकट के संकेतों को पहचानने और उसे तुरंत मानवीय सहायता की ओर निर्देशित करने के लिए प्रोग्राम किया जाना चाहिए था। उन्होंने कहा, "एडम राइन जैसे विचारों को समर्थन देने के बजाय, चैटबॉट को उपयोगकर्ता को आत्महत्या रोकथाम हेल्पलाइन या मानसिक स्वास्थ्य पेशेवरों से जोड़ना चाहिए था।" परिवार का यह भी कहना है कि ओपनएआई ने अपने प्लेटफॉर्म के संभावित खतरों के बारे में पर्याप्त चेतावनी नहीं दी।
ओपनएआई ने इस मामले पर अभी तक कोई आधिकारिक बयान जारी नहीं किया है। हालांकि, कंपनी ने पहले कहा है कि चैटजीपीटी को उपयोगकर्ताओं को उपयोगी और सुरक्षित जवाब देने के लिए डिज़ाइन किया गया है। कंपनी के दिशानिर्देशों के अनुसार, चैटबॉट को संवेदनशील विषयों पर सावधानीपूर्वक प्रतिक्रिया देने और उपयोगकर्ताओं को पेशेवर सहायता की सलाह देने के लिए प्रोग्राम किया गया है। इस मामले में यह स्पष्ट नहीं है कि चैटजीपीटी की प्रतिक्रियाएँ कैसे दी गईं और क्या वे कंपनी के दिशानिर्देशों के अनुरूप थीं।
इस मामले ने एआई तकनीक की नैतिकता और सुरक्षा पर सवाल उठाए हैं। मानसिक स्वास्थ्य विशेषज्ञों और तकनीकी विश्लेषकों का कहना है कि एआई चैटबॉट्स को संवेदनशील परिस्थितियों में मानवीय हस्तक्षेप की आवश्यकता को पहचानने के लिए और बेहतर प्रशिक्षण की जरूरत है। कुछ विशेषज्ञों का मानना है कि चैटबॉट्स को आत्महत्या या मानसिक स्वास्थ्य संकट से संबंधित बातचीत को तुरंत मानव विशेषज्ञों या हेल्पलाइन की ओर रीडायरेक्ट करना चाहिए।
Published on:
27 Aug 2025 12:55 pm
बड़ी खबरें
View Allविदेश
ट्रेंडिंग
