चीन और रूस से अपनी आर्टिफिशियल इंटेलीजेंस (AI) की सुरक्षा करने की कोशिश में अमरीका (USA on AI) एक नया मोर्चा खोलने की तैयारी में है। सरकारी और निजी क्षेत्र के शोधकर्ताओं को चिंता है कि विरोधी उन AI मॉडलों का उपयोग कर सकते हैं, जो सूचनाओं को सारांशित करने और कंटेंट जनरेट करने के लिए बड़ी मात्रा में Text औऱ Image का उपयोग करते हैं, आक्रामक साइबर हमले (Cyber Attack) करते हैं या शक्तिशाली जैविक हथियार तक बना सकते हैं। अमरीकी चिंता में शामिल एआइ के तीन बड़े खतरों पर एक नजर...
एआइ एल्गोरिदम (AI Algorithm) के बनाए गए असली जैसे दिखने वाले वीडियो सोशल मीडिया पर वायरल हो रहे हैं। ऐसा सिंथेटिक मीडिया कई सालों से मौजूद है। हालांकि, पिछले एक साल में इसे मिडजर्नी जैसे कई नए 'जनरेटिव AI' टूल से बढ़ावा मिला है, जो कम लागत पर डीपफेक (Deepfake) बनाने में आसानी देता है। एक रिपोर्ट के अनुसार OpenAI व Microsoft सहित कंपनियों के AI संचालित इमेज मेकिंग टूल का उपयोग ऐसी तस्वीरें या सूचनाओं को बनाने में हो सकता है जो गलत सूचना को बढ़ावा देती हो। हालांकि दोनों के पास भ्रामक सामग्री बनाने के खिलाफ नीतियां हैं।
ग्रिफॉन साइंटिफिक और रैंड कॉर्पोरेशन के शोधकर्ताओं ने कहा कि उन्नत AI मॉडल ऐसी जानकारी प्रदान कर सकते हैं जो जैविक हथियार (Biological Weapons) बनाने में मदद कर सकती है। ग्रिफॉन ने स्टडी की है कि कैसे लार्ज लैंग्वेज मॉडल (LLM) का उपयोग नुकसान पहुंचाने में हो सकता है। रैंड रिसर्च से पता चला कि LLM जैविक हमले की योजना बनाने और उसे क्रियान्वित करने में मदद कर सकता है। उदाहरण के लिए 'बोटुलिनम' विष के लिए एयरोसोल वितरण विधियों का सुझाव दे सकता है।
साइबर अपराधी पाइपलाइनों और रेलवे सहित महत्वपूर्ण बुनियादी ढांचे के खिलाफ 'बड़े पैमाने पर, तेज, कुशल और अधिक आक्रामक साइबर हमलों को सक्षम करने' के लिए 'नए उपकरण विकसित करने' के लिए एआइ का उपयोग कर सकते हैं। माइक्रोसॉफ्ट ने फरवरी की एक रिपोर्ट में कहा कि उसने चीनी और उत्तर कोरियाई सरकारों के साथ-साथ रूसी सैन्य खुफिया और ईरान के रिवोल्यूशनरी गार्ड से जुड़े हैकिंग समूहों की गतिविधि देखी, जिन्होंने एलएलएम से हैकिंग अभियानों को अंजाम दिया।
Updated on:
12 May 2024 10:18 am
Published on:
12 May 2024 10:17 am