16 अप्रैल 2026,

गुरुवार

Patrika Logo
Switch to English
home_icon

मेरी खबर

video_icon

शॉर्ट्स

epaper_icon

ई-पेपर

स्वास्थ्य पर एआई से सलाह लेना खतरनाक, रिसर्च के अनुसार 50% जानकारी होती है गलत

स्वास्थ्य पर एआई से सलाह लेना खतरनाक होता है। एक रिसर्च में इससे जुड़ी चिंताजनक बात का खुलासा हुआ है।

2 min read
Google source verification

भारत

image

Tanay Mishra

Apr 16, 2026

AI

AI

एआई यानी आर्टिफिशियल इंटेलिजेंस (AI - Artificial Intelligence) का इस्तेमाल तेज़ी से बढ़ रहा है। आज के इस दौर में दुनियाभर में कई लोग एआई का इस्तेमाल करते हैं। लोग अलग-अलग कामों के लिए एआई का इस्तेमाल करते हैं। कई लोग तो अपने स्वास्थ्य को लेकर भी एआई चैटबॉट्स से सलाह लेते हैं। अगर आप भी ऐसा करते हैं तो सतर्क हो जाइए। एक नई रिसर्च के अनुसार एआई चैटबॉट्स लोगों की सेहत और मेडिकल से जुड़े सवालों के जवाब अधूरी जानकारी के साथ दे रहे हैं।

50% जानकारी होती है गलत

रिसर्च में पता चला कि एआई चैटबॉट्स ने स्वास्थ्य से जुड़े कई लगभग 50% मामलों में गलत जानकारी तक दे दी। कई बार तो इन एआई चैटबॉट्स से मिली 50% जानकारी भी गलत आई।

क्या रहा परिणाम?

इस रिसर्च के लिए वैज्ञानिकों की टीम ने जेमिनाई, डीपसीक, मेटा एआई, चैटजीपीटी और ग्रोक जैसे बड़े एआई चैटबॉट्स पर रिसर्च की थी। उन्होंने इन बॉट्स से स्वास्थ्य संबंधित 10 सवाल पूछे थे। कैंसर और वैक्सीन जैसे विषयों पर चैटबॉट्स का प्रदर्शन बेहतर रहा, लेकिन स्टेम सेल, पोषण जैसे विषयों पर ये काफी कमजोर साबित हुए। ग्रोक ने उम्मीद से ज़्यादा गलत जवाब दिए।

19.6% जवाब बहुत ज़्यादा गलत

रिसर्च में यह भी सामने आया कि एआई चैटबॉट्स द्वारा दिए गए संदर्भ की गुणवत्ता भी अच्छी नहीं थी। चैटबॉट्स के जवाबों को तीन हिस्सों में बांटा गया- सही, थोड़ा गलत और बहुत ज़्यादा गलत। इसमें पाया गया कि कुल 49.6% जवाब समस्याग्रस्त थे। इनमें 30% जवाब कुछ हद तक गलत थे, जबकि 19.6% जवाब बहुत ज़्यादा गलत पाए गए।

पूरे आत्मविश्वास से देते हैं गलत जवाब

एक बड़ी समस्या यह भी है कि ये एआई चैटबॉट्स हर जवाब पूरे आत्मविश्वास से देते हैं, लेकिन ज़रूरी चेतावनी या डिस्क्लेमर कम होते हैं। यूज़र सही-गलत जवाब में अंतर नहीं कर पाते और गलत को भी सही मान लेते हैं। साथ ही एआई चैटबॉट्स द्वारा दिए गए संदर्भ भी कई बार भरोसेमंद नहीं होते। कई बार ये एआई चैटबॉट्स ऐसे स्रोत बता देते हैं, जो असल में मौजूद ही नहीं होते।