26 दिसंबर 2025,

शुक्रवार

Patrika LogoSwitch to English
home_icon

मेरी खबर

icon

प्लस

video_icon

शॉर्ट्स

epaper_icon

ई-पेपर

कमलनाथ की रैली का डीपफेक वीडियो…. आरोपी तक नहीं पहुंच पाई पुलिस

सोशल मीडिया पर हुआ था वायरल, कहीं से भी आवाज-फोटो हासिल कर बना सकते हैं डीपफेक वीडियो, फ्रॉड में इस्तेमाल का खतरा  

2 min read
Google source verification
कमलनाथ की रैली का डीपफेक वीडियो.... आरोपी तक नहीं पहुंच पाई पुलिस

कमलनाथ की रैली का डीपफेक वीडियो.... आरोपी तक नहीं पहुंच पाई पुलिस

इंदौर. विधानसभा चुनाव के प्रचार के दौरान प्रदेश कांग्रेस अध्यक्ष कमलनाथ की रैली का एक एडिटेड वीडियो सामने आया तो क्राइम ब्रांच ने केस दर्ज किया। वीडियो में आवाज को एडिट किया गया था। पुलिस को आशंका है कि एआइ (आर्टिफिशियल इंटेलीजेंस) तकनीक का इस्तेमाल कर डीपफेक वीडियो तैयार किया गया था। हालांकि इसे बनाने वाले तक पुलिस नहीं पहुंच पाई है।

फिल्मी सितारे, नेता डीपफेक वीडियो का शिकार बन रहे हैं। खतरा स्थानीय स्तर पर भी है। कमलनाथ की रैली के वीडियो में आपत्तिजनक बातें थी। क्राइम ब्रांच ने सिर्फ गलत वीडियो फारवर्ड करने का केस दर्ज किया, लेकिन अब इसे डीपफेक से जोड़ा जा रहा है। डीसीपी क्राइम निमिष अग्रवाल ने माना कि एआइ (AI) के जरिए दूसरी आवाज को जोड़कर वीडियो बनाया गया था। केस दर्ज कर लिया था, लेकिन अब तक आरोपी तक नहीं पहुंचे हैं। ऐसे केस में मुख्य आरोपी तक पहुंचना बड़ी चुनौती है। जिस कम्प्यूटर-लैपटॉप से हरकत की गई, जब तक वह नहीं मिलता, आरोपी पकड़ में नहीं आता है।

------------
आइटी एक्ट में प्रावधान

- आइटी एक्ट 66 सी में बेइमानी पूर्वक वीडियो-ऑडियो का उपयोग करने पर केस का प्रावधान है। तीन साल की सजा, एक लाख तक के जुर्माने का प्रावधान है।
- आइटी एक्ट 66 डी में संचार साधन, कम्प्यूटर का इस्तेमाल कर छलपूर्वक नकल कर धोखाधड़ी करने पर केस दर्ज करते हैं। तीन साल की सजा व एक लाख तक के जुर्माने का प्रावधान।

-------------

https://stopncii.org है विकल्प

डीपफेक का खतरा बढ़ रहा है। कहीं से भी आपकी आवाज, वीडियो व फोटो लेकर उसे एआइ तकनीक का इस्तेमाल कर नकली वीडियो बनाया जा सकता है। कुछ केस ऐसे आए हैं, जिसमें फोन पर किसी नजदीकी रिश्तेदार, परिचित की आवाज में बात कर फ्रॉड किया गया। आवाज के इस्तेमाल का खतरा भी बढ़ रहा है। सोशल मीडिया पर सक्रिय रहने वाले लोगों को सावधान रहने की जरूरत है। अगर किसी को लगे कि उनके वीडियो, ऑडियो, फोटो का गलत इस्तेमाल हो रहा है तो वह https://stopncii.org वेबसाइट के जरिए उसकी तलाश कर रिमूव भी कर सकते हैं।
चातक वाजपेयी, साइबर एक्सपर्ट