भोपाल

खतरनाक ट्रेंड: 40 युवतियों के फोटो से छेड़छाड़, बनाया पोर्न वीडियो

MP News: सुंदर तस्वीरों के नाम पर निजता का सौदा, टेक कंपनियों के पास आपका सारा डाटा....

2 min read
Sep 18, 2025
MP News

MP News: एआइ से सुंदर तस्वीरें बनवाना नए खतरे लेकर आया है। गूगल के जैमिनी नैनो बनाना एआइ फोटो एडिटिंग टूल के एआइ साड़ी एडिट ट्रेंड के दौरान सामने आए इंस्टाग्राम यूजर झलक भवनानी के मामले ने साबित कर दिया कि टेक कंपनियां लोगों की निजता का सौदा कर रही हैं। कंपनियों के पास इतना निजी डाटा हैं कि वह जानती है कि डीप फेक में तिल कहां लगाना है? गूगल इस डाटा के उपयोग की यूजर्स से सहमति ले चुका है।

एआइ के दुरुपयोग से मध्यप्रदेश में लोगों की परेशानी बढ़ गई है। एआइ टूल से साइबर ठगों के 40 युवतियों की फोटो से छेड़छाड़ कर पोर्न वीडियो बनाने के मामले सामने आए हैं। मामले में देवास पुलिस ने हाल ही में 18 साल के अभिषेक को गिरफ्तार किया। रासुका लगाई, फिर भी घटनाएं कम नहीं हो रहीं।

ये भी पढ़ें

सावधान! मानसून के तेवर, 3 जिलों में अतिभारी बारिश की चेतावनी, 7 दिन मचाएगी तांडव

इंदौर: रील की लत से हुई ब्लैकमेल

इंदौर की युवती को सोशल मीडिया में अपनी पल-पल की तस्वीरें अपलोड करने का शौक था। उसने अपनी आइडी पिलक कर रखी थी। साइबर अपराधियों ने फायदा उठाया और उसकी फोटो को एआइ से पोर्न में बदल दिया। उसे लैकमेल करने लगे। बात फैली और शादी टूट गई। वह अवसाद से घिर गई।

पूरी बांह में फोटो, AI की फोटो ने चौंकाया

झलक भवनानी ने इंस्टाग्राम पर बताया कि उन्होंने एआइ साड़ी ट्रेंड के लिए फोटो अपलोड की। अपलोड तस्वीर में उन्होंने पूरी आस्तीन का सूट पहना था, लेकिन एआइ ने जो तस्वीर दी, जिसमें उनके कंधे पर तिल दिख रहा है। झलक पूछती हैं कि एआइ को इसके बारे में कैसे पता? वे इस ट्रेंड से बचने की सलाह दे रही हैं।

कैसे संभव : आशंका है कि झलक की नकल बनाने के लिए एआइ ने बिना अनुमति सोशल मीडिया अकाउंट से पुरानी तस्वीरों का उपयोग किया। इनमें उनके कंधे का तिल नजर आ रहा होगा।

जग्गी वासुदेव के वीडियो की ठगी

बेंगलुरु में महिला को सोशल मीडिया पर धर्म गुरु जग्गी वासुदेव का वीडियो मिला, जिसमें वे एक फर्म में निवेश के लिए कह रहे थे। महिला ने निर्देशों का पालन किया और उनके अकाउंट से 3.75 करोड़ रुपए अन्य खातों में डाले गए। पता चला कि जग्गी वासुदेव का वीडियो डीप फेक व एआइ तकनीक से बना था।

कैसे संभव: आशंका है कि झलक की नकल बनाने के लिए एआइ ने बिना अनुमति सोशल मीडिया अकाउंट से पुरानी तस्वीरों का उपयोग किया। इनमें उनके कंधे का तिल नजर आ रहा होगा।

अरिजीत की आवाजा की कर दी क्लोनिंग

एआइ प्लेटफॉर्म ने गायक अरिजीत सिंह की आवाज में गाने वॉइस क्लोनिंग से कन्वर्ट करने का विकल्प यूजर्स को दिया। डीप फेक तकनीक ने उनकी आवाज में कई नए-पुराने गाने सोशल मीडिया पर अपलोड हुए। अरिजीत ने बॉबे हाईकोर्ट में केस किया। अंतरिम राहत में सोशल मीडिया से गाने हटाए।

कैसे संभव : एआइ के जरिए सभी जाने-माने लोगों की आवाज के मॉड्यूलेशन और उतार चढ़ाव की नकल करते हुए डीप फेक वॉइस क्लोनिंग की जा रही है। इनके जरिए पुराने गायकों की आवाज में नए गाने गवाने से लेकर साइबर अपराध तक अंजाम दिए जा रहे हैं।

बरतें सतर्कता

मेटाडेटा हटाएं: फोटो अपलोड से पहले लोकेशन-डिवाइस डिटेल्स हटाएं।

नीति चेक करें: ऐप या प्लेटफॉर्म की डेटा यूज पॉलिसी पढ़ें। वह आपका डेटा एआइ तकनीक की ट्रेनिंग में उपयोग कर रहा है तो अपलोड करने से बचें। चेहरा-आवाज अपलोड न करें।

ये भी पढ़ें

कर्नल सोफिया कुरैशी पर बेशर्म बयान देने वाले मंत्री ने अब कमिश्नर को दी धमकी!

Published on:
18 Sept 2025 12:51 pm
Also Read
View All

अगली खबर