विदेश

13 साल के छात्र ने ChatGPT से पूछा- मित्र को कैसे मारें? फिर गूगल के क्विक एक्शन से मच गई खलबली! पढ़ें पूरा मामला

एक 13 वर्षीय छात्र को स्कूल के कंप्यूटर पर चैटजीपीटी से 'मित्र को कैसे मारें' पूछने के आरोप में गिरफ्तार किया गया। छात्र ने दावा किया कि वह मजाक कर रहा था, लेकिन अधिकारियों ने गंभीरता से लिया और नाबालिग सुविधा में भेज दिया। माता-पिता को बच्चों के एआई टूल उपयोग पर नजर रखने की सलाह दी गई है।

2 min read
Oct 08, 2025
आर्टिफिशियल इंटेलिजेंस चैटबॉट (Photo- AI)

13 वर्षीय एक छात्र को स्कूल के कंप्यूटर पर चैटजीपीटी से 'मित्र को कैसे मारें' पूछने के आरोप में गिरफ्तार किया गया। यह संदेश गूगल निगरानी प्रणाली द्वारा रिकॉर्ड किया गया और तुरंत समीक्षा के लिए फ्लैग कर दिया गया।

स्कूल सुरक्षा प्रोटोकॉल के अनुसार, यह अलर्ट कैंपस पुलिस अधिकारी को भेजा गया। अधिकारियों ने साउथ वेस्टर्न मिडिल स्कूल से छात्र को ढूंढकर हिरासत में लिया।

ये भी पढ़ें

सावधान! ChatGPT ने बताया ना पूछें ये 6 बातें, हो सकता है जान को खतरा

पूछताछ में छात्र ने कहा कि वह केवल मजाक में अपने मित्र को परेशान कर रहा था, लेकिन अधिकारियों ने इसे हल्के में नहीं लिया, क्योंकि अमरीका में स्कूल हिंसा की संवेदनशील पृष्ठभूमि को ध्यान में रखते हुए इसे हल्के में नहीं लिया गया।

काउंटी शेरिफ कार्यालय ने गिरफ्तारी और उसे नाबालिग सुविधा में भेजे जाने की पुष्टि की। घटना के बाद अधिकारियों ने माता-पिता को चेतावनी दी कि वे बच्चों के एआइ टूल्स के उपयोग पर नजर रखें।

गूगल निगरानी प्रणाली करती हैं अलर्ट

गौरतलब है कि अप्रैल में कैलिफ़ोर्निया के 16 वर्षीय छात्र ने चैटजीपीटी की बातों में आकर आत्महत्या कर ली थी। उसके माता-पिता ने ओपनएआइ के खिलाफ मुकदमा दायर किया है।

गौरतलब है कि गूगल जैसी निगरानी प्रणालियां स्कूलों में सभी छात्र वार्तालापों को ट्रैक करती हैं और संभावित खतरों पर तुरंत अलर्ट देती हैं।

विशेषज्ञों ने चेताया है कि माता-पिता और शिक्षक बच्चों के एआइ उपयोग पर सतर्क रहें, ताकि मजाक या गलत जानकारी गंभीर संकट में न बदल जाए।

ChatGPT की सलाह से मरते-मरते बचा शख्स

कुछ ही दिनों पहले एक और चौंकाने वाला मामला सामने आया था. न्यूयॉर्क में एक 60 वर्षीय व्यक्ति ने ChatGPT से खाने से नमक (सोडियम क्लोराइड) हटाने की सलाह मांगी, क्योंकि उसे नमक से स्वास्थ्य को नुकसान की जानकारी थी।

AI चैटबॉट की सलाह पर उसने खाने में नमक बंद कर सोडियम ब्रोमाइड का उपयोग शुरू किया। इससे उसकी तबीयत बिगड़ गई और वह मरते-मरते बचा।

डॉक्टरों के अनुसार, सोडियम ब्रोमाइड विषाक्त हो सकता है और यह खाने के लिए सुरक्षित नहीं है। इस घटना ने AI की सलाह पर निर्भरता के खतरों को उजागर किया।

Also Read
View All

अगली खबर