5 फ़रवरी 2026,

गुरुवार

Patrika Logo
Switch to English
home_icon

मेरी खबर

video_icon

शॉर्ट्स

epaper_icon

ई-पेपर

खुलासा: ‘न्यूड’ देखने की सनक में AI से बना दिए लड़कियों के अश्लील वीडियो, आप भी रहें सतर्क

यह चौंकाने वाला कबूलनामा, उन 15-16 साल के लड़कों का है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले। ये दोनों ही लड़के अब पुलिस गिरफ्त में हैं।

4 min read
Google source verification
AI

AI से बनाए अश्लील फोटो-वीडियो

MP News: ये मामला रोंगटे खड़े कर देता है… क्योंकि अपराध की दुनिया का ये कदम इन लड़कों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृति से उपजे विचारों की संतुष्टि के लिए किया। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस के होश उड़ा दिए।

AI से एडिट कर अश्लील फोटो-वीडियो बनाए

24 जनवरी को छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का झकझोर कर रख देने वाला मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं।

एक युवक से मिली थी जानकारी

उन्होंने पुलिस को बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें ये सारी जानकारी मिली है। मामला गंभीर होने से पुलिस ने तुरंत साइबर टीम की मदद से मामले की जांच शुरू कर दी।

मोबाइल पर मिले सबूत

जांच में मोबाइल से मिले सबूतों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान की गई। दोनों आरोपी नाबालिग निकले। पीड़ित लड़की ने पुलिस को बताया कि उसने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने उसे बुलाया और अपने मोबाइल में टेलीग्राम एप पर उसकी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए।

फोटो-वीडियों देखकर लगा झटका

फोटो देखते ही उसने उसे डांटा। उससे पूछा कि तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? उसने उससे कहा कि वो उन्हें बदनाम क्यों रहा है? लड़की ने बताया कि उसने जब उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे।

माता-पिता को दी जानकारी, तब हुई FIR

उसने बताया कि सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद मामले की शिकायत करने थाने पहुंची।

आरोपियों ने कबूल किया- टेलीग्राम पर न्यूड कंटेंट सर्च किया

पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी।

पूछताछ में बताया, क्यों किया गंदा काम

शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया। उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है।

पुलिस के सामने डिलिट डेटा रिकवर करना बड़ी चुनौती

पुलिस के लिए बड़ी चुनौती यह थी कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है।

दोस्ती के कारण इंस्टाग्राम पर जुड़े थे

पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में उनसे बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए थे। जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे।

कैसे बनाते थे फर्जी न्यूड फोटो और वीडियो

आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था। तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था।

डिजिटल दुनिया में सतर्कता विकल्प नहीं, अब जरूरत

टीआई आशीष कुमार के मुताबिक पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है। पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है।

असली और नकली में फर्क करते आना जरूरी

सायबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है। AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बॉडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं।

AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता। वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है।

जानें क्या है डीपफेक

डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।