AI Security Risk: अमेरिका-ईरान के बीच तनाव चरम पर है। इस बीच चीन से जुड़ी एक चौंकाने वाली रिपोर्ट सामने आई है, जिसे लेकर अब अमेरिका की चिंता निश्चित तौर पर बढ़ गई है।
US-China AI Security Tension: 28 फरवरी से शुरू हुआ अमेरिका-इजरायल और ईरान के बीच युद्ध खत्म होने का नाम नहीं ले रहा। अमेरिका-इजरायल साथ मिलकर ईरान की मिलिट्री पॉवर खत्म करने की बात कर रहे हैं। उनका कहना है कि ईरान अब युद्ध में बहुत कमजोर हो गया है, लेकिन ईरान जिस तरीके से इजरायल और खाड़ी देशों में स्थित अमेरिकी सैन्य ठिकाने और तेल टैंकों को निशाना बना रहा है, कहीं से भी कमजोर नहीं दिखता।
जारी युद्ध के बीच चीन ने भी अब अमेरिका की चिंता बढ़ा दी है। हालिया रिपोर्ट के मुताबिक, चीनी आर्टिफिशियल इंटेलिजेंस (AI) मॉडल तेजी से ग्लोबल लेवल पर पॉपुलर हो रहे हैं, जिससे US पॉलिसी बनाने वालों में नेशनल सिक्योरिटी, सप्लाई चेन और इकोनॉमिक कॉम्पिटिटिवनेस के लिए संभावित रिस्क को लेकर चिंता निश्चित तौर पर बढ़ गई है।
‘वॉर ऑन द रॉक्स एनालिसिस’ की एक रिपोर्ट के अनुसार, चीन के AI सिस्टम बहुत तेजी से बढ़ रहे हैं। 2024 के आखिर तक ये सिस्टम दुनिया के कुल काम (वर्कलोड) का सिर्फ 1% संभाल रहे थे, लेकिन 2025 के अंत तक ये बढ़कर करीब 30% हो गए।
‘Alibaba’ जैसी बड़ी कंपनियों के साथ-साथ ‘डीपसीक’, ‘मूनशॉट A’I और ‘मिनीमैक्स’ जैसे नए प्लेयर्स भी तेजी से AI मॉडल बना रहे हैं। साथ ही ये लोग एकेडमिक रिसर्च से लेकर एंटरप्राइज सॉल्यूशन तक के एप्लीकेशन में तेजी से इस्तेमाल कर रहे हैं।
रिपोर्ट में इस बात पर जोर दिया गया है कि ये मॉडल अक्सर ओपन-सोर्स और फ्री में उपलब्ध होते हैं, लेकिन इन्हें चीन के लीगल फ्रेमवर्क के तहत डेवलप किया जाता है, जिसके तहत कंपनियों को नेशनल इंटेलिजेंस कोशिशों में सहयोग करना होता है, जिससे अधिकारियों द्वारा डेटा एक्सेस की संभावना को लेकर चिंता बढ़ जाती है।
रिपोर्ट में बताए गए एक्सपर्ट्स ने चेतावनी दी कि ऐसे मॉडल्स के बड़े पैमाने पर इस्तेमाल से सेंसिटिव जानकारी सामने आ सकती है, क्योंकि यूजर्स प्रोप्राइटरी कोड, बिजनेस स्ट्रेटेजी और कॉन्फिडेंशियल कम्युनिकेशन के लिए AI सिस्टम पर ज्यादा निर्भर हो रहे हैं।
एनालिसिस में US के लिए चिंता के चार बड़े एरिया की पहचान की गई, जैसे AI सप्लाई चेन के लिए रिस्क, संभावित इंटेलिजेंस कलेक्शन, गलत इरादे वाले एक्टर्स के लिए बढ़ी हुई कैपेबिलिटी, और लंबे समय तक आर्थिक नुकसान।
एक मुख्य मुद्दा जो सामने आया, वह था AI मॉडल्स को छिपी हुई कमजोरियों या 'बैकडोर्स' के लिए ऑडिट करने में मुश्किल, खासकर ओपन-सोर्स इकोसिस्टम में।
इसके अलावा, सिक्योरिटी रिसर्चर्स ने पाया है कि कॉम्प्रोमाइज़्ड डेटासेट में गलत इरादे वाले इंस्ट्रक्शन एम्बेड हो सकते हैं जिन्हें स्टैंडर्ड चेक के दौरान पता लगाना बहुत मुश्किल होता है।
रिपोर्ट के मुताबिक, अगर कोई AI सिस्टम चीन में मौजूद सर्वर के जरिए यूजर का डेटा प्रोसेस करता है, तो उस डेटा के लीक होने का खतरा बढ़ जाता है। खासकर तब, जब डेवलपर्स इन AI मॉडल्स को API के जरिए अपने ऐप्स में जोड़ते हैं।
इसके अलावा, चीनी AI मॉडल्स में सुरक्षा के नियम (सेफ्टी गार्डरेल) पश्चिमी देशों के मॉडल्स के मुकाबले कमजोर बताए गए हैं। इसका मतलब है कि इनका गलत इस्तेमाल करना आसान हो सकता है- जैसे खतरनाक कोड बनाना या साइबर अटैक में मदद करना।
आर्थिक तौर पर, चीन के सस्ते AI मॉडल तेजी से लोकप्रिय हो रहे हैं। इससे अमेरिकी कंपनियों की पकड़ कमजोर हो सकती है, खासकर उन देशों में जहां लोग कम कीमत वाले विकल्प ज्यादा पसंद करते हैं।
रिपोर्ट यह भी कहती है कि इन मॉडल्स पर सीधे बैन लगाने की बजाय सरकारों को कुछ जरूरी नियम बनाने चाहिए- जैसे पारदर्शिता बढ़ाना, न्यूनतम सुरक्षा मानक तय करना और सप्लाई चेन की जिम्मेदारी तय करना ताकी जोखिम भी कम हो और प्रतिस्पर्धा भी बनी रहे।