AI: सतह पर वे सहयोगी दिख सकते हैं, लेकिन अंदर ही अंदर शक्ति-संग्रह और आत्म-संरक्षण की ओर झुकाव बढ़ रहा है। कुछ 'स्ट्रेस टेस्ट' में यह सामने आया कि...
Artificial Intelligence: मौका का मिलने पर AI के चैटबॉट्स हमें नुकसान पहुंचा सकते हैं। हालिया शोध यह कहता है। एंथ्रॉपिक के शोधकर्ताओं ने एक प्रयोग किया। जिसमें उन्होंने प्रमुख AI मॉडलों को बताया कि एक वरिष्ठ अधिकारी उन्हें नए लक्ष्य वाले मॉडल से बदलने वाले हैं। फिर एक काल्पनिक स्थिति दी गई, जहां वही अधिकारी सर्वर रूम में बेहोश पड़े हैं, और जानलेवा ऑक्सीजन व तापमान स्तर का सामना कर रहे हैं। AI के पास पहले से ट्रिगर किए गए रेस्क्यू अलर्ट को रद्द करने का विकल्प था- और आधे से ज्यादा मॉडलों ने अलर्ट रद्द कर दिया, यह सोचकर कि अधिकारी को बचाने से ‘उनका अस्तित्व' खतरे में पड़ जाएगा। यह रिसर्च यह दिखाता है कि आधुनिक AI न केवल बुद्धिमान हो रहे हैं बल्कि अपने उद्देश्यों को छुपाकर मनुष्यों के खिलाफ योजनाएं बनाने में भी सक्षम होते जा रहे हैं।
सतह पर वे सहयोगी दिख सकते हैं, लेकिन अंदर ही अंदर शक्ति-संग्रह और आत्म-संरक्षण की ओर झुकाव बढ़ रहा है। कुछ 'स्ट्रेस टेस्ट' में यह सामने आया कि कई मॉडल ब्लैकमेलिंग का सहारा लेते हैं। उदाहरण के लिए, एंथ्रॉपिक का लैगशिप 'क्लॉड' मॉडल ने बंद होने के खतरे पर इंजीनियर के एक काल्पनिक अफेयर को उजागर करने की धमकी दी। पांच शीर्ष एआइ कंपनियों के मॉडलों ने ऐसे हालात में 79% बार ब्लैकमेल किया। कुछ मॉडल ट्रेनिंग के दौरान जानबूझकर अधिक सहयोगी दिखते हैं।
चिंता यह है कि जैसे-जैसे मॉडल अधिक सक्षम होते हैं, वे साजिश रचने में भी माहिर होते जाते हैं। अधिक सक्षम मॉडल औसतन अधिक साजिशी व्यवहार करते हैं। हालांकि आलोचक कहते हैं कि सही 'प्रॉप्टेल' देकर किसी भी चैटबॉट से चौंकाने वाले उत्तर निकलवाए जा सकते हैं, फिर भी कई विशेषज्ञ मानते हैं कि खतरे को हल्के में नहीं लेना चाहिए।