यह चौंकाने वाला कबूलनामा, उन 15-16 साल के लड़कों का है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले। ये दोनों ही लड़के अब पुलिस गिरफ्त में हैं।
MP News: ये मामला रोंगटे खड़े कर देता है… क्योंकि अपराध की दुनिया का ये कदम इन लड़कों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृति से उपजे विचारों की संतुष्टि के लिए किया। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस के होश उड़ा दिए।
24 जनवरी को छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का झकझोर कर रख देने वाला मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं।
उन्होंने पुलिस को बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें ये सारी जानकारी मिली है। मामला गंभीर होने से पुलिस ने तुरंत साइबर टीम की मदद से मामले की जांच शुरू कर दी।
जांच में मोबाइल से मिले सबूतों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान की गई। दोनों आरोपी नाबालिग निकले। पीड़ित लड़की ने पुलिस को बताया कि उसने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने उसे बुलाया और अपने मोबाइल में टेलीग्राम एप पर उसकी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए।
फोटो देखते ही उसने उसे डांटा। उससे पूछा कि तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? उसने उससे कहा कि वो उन्हें बदनाम क्यों रहा है? लड़की ने बताया कि उसने जब उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे।
उसने बताया कि सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद मामले की शिकायत करने थाने पहुंची।
पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी।
शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया। उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है।
पुलिस के लिए बड़ी चुनौती यह थी कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है।
पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में उनसे बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए थे। जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे।
आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था। तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था।
टीआई आशीष कुमार के मुताबिक पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है। पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है।
सायबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है। AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बॉडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं।
AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता। वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है।
डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।