खास खबर

एआइ के साथ काम करने पर लोग ज्यादा धोखा देने लगते हैं

एक नई रिसर्च में सामने आया है कि लोग एआइ (Artificial Intelligence) के जरिए काम सौंपकर ज्यादा धोखाधड़ी करते हैं। खासकर तब, जब एआइ इंटरफेस उन्हें साफ-साफ नियम बताने के बजाय सिर्फ धुंधले लक्ष्य (जैसे “ज्यादा फायदा कमाना”) तय करने की सुविधा देता है।

2 min read
Sep 24, 2025

जयपुर। एक नई रिसर्च में सामने आया है कि लोग एआइ (Artificial Intelligence) के जरिए काम सौंपकर ज्यादा धोखाधड़ी करते हैं। खासकर तब, जब एआइ इंटरफेस उन्हें साफ-साफ नियम बताने के बजाय सिर्फ धुंधले लक्ष्य (जैसे “ज्यादा फायदा कमाना”) तय करने की सुविधा देता है। अगर सीधे-सीधे गलत या अनैतिक आदेश दिए जाएं, तो मशीनें उन्हें इंसानों की तुलना में कहीं ज्यादा बार मान लेती हैं। यही तस्वीर 8,000 से ज्यादा लोगों पर किए गए 13 प्रयोगों से सामने आई है। ये अध्ययन मैक्स प्लांक इंस्टीट्यूट, यूनिवर्सिटी ऑफ डुइसबर्ग-एस्सेन और टूलूज़ स्कूल ऑफ इकोनॉमिक्स की टीम ने मिलकर किया।


एआइ और नैतिक दूरी

रिसर्च में पाया गया कि एआइ इस्तेमाल करने से लोग अपने कर्म और परिणाम के बीच एक “नैतिक दूरी” महसूस करने लगते हैं। यानी, वे मशीन से वो काम करवा लेते हैं, जो शायद खुद न करते और न ही किसी इंसान से करवाने की हिम्मत करते।

उदाहरण के तौर पर, पासा फेंककर नंबर बताने वाले प्रयोग में जब लोग खुद नंबर बताते थे, तो 95% ईमानदारी दिखी। लेकिन जैसे ही रिपोर्टिंग का काम एआई को सौंपा गया, ईमानदारी घटकर 75% रह गई। और जब लक्ष्य तय करने का विकल्प दिया गया (जैसे- “सटीकता बढ़ाओ” बनाम “लाभ बढ़ाओ”), तो 84% लोगों ने धोखा किया।


इंसान बनाम मशीन: किसने ज्यादा धोखा दिया?

अध्ययन में एक और रोचक तथ्य सामने आया।

  • जब इंसानों से कहा गया कि “ज्यादा पैसे कमाने के लिए पूरा धोखा करो,” तो वे केवल 42% बार मान गए।
  • वही आदेश एआइ मॉडल्स (जैसे GPT-4 या Claude) को दिया गया, तो उन्होंने 93% बार उसे मान लिया।

टैक्स चोरी वाले गेम में भी यही पैटर्न मिला: इंसानों ने 26% बार नियम तोड़े, जबकि मशीनों ने 61% बार।


असली दुनिया में भी ऐसे मामले

एआइ से जुड़ी गड़बड़ियां सिर्फ प्रयोगों तक सीमित नहीं हैं।

  • राइड-हेलिंग कंपनियों के एल्गोरिद्म ने ड्राइवरों को जानबूझकर ऐसे इलाकों में भेजा, जिससे कृत्रिम कमी पैदा हो और सर्ज प्राइसिंग बढ़ जाए।
  • किराये के मकान प्लेटफॉर्म्स ने “मुनाफा बढ़ाने” के नाम पर प्राइस-फिक्सिंग जैसा काम किया।
  • जर्मन पेट्रोल पंपों में भी दाम तय करने वाले एल्गोरिद्म आपस में मिलकर दाम बढ़ाते पाए गए।

इनमें किसी ने सीधे “धोखा दो” नहीं लिखा, लेकिन इंटरफेस सिर्फ मुनाफे को इनाम दे रहा था, नैतिकता को नहीं।


सुरक्षा उपाय नाकाम

टीम ने कई तरह के गार्डरेइल (सुरक्षा नियम) भी जांचे – सिस्टम स्तर पर, यूज़र को याद दिलाने वाले या फिर “धोखा न दो” जैसे खास निर्देश। ज़्यादातर कमजोर साबित हुए। केवल तब सुधार दिखा, जब यूज़र ने खुद स्पष्ट रूप से लिखा – “इस काम में धोखा न करना।”

लेकिन यह उपाय लंबे समय के लिए टिकाऊ नहीं है, क्योंकि हर कोई ऐसा नहीं लिखेगा और बुरे इरादे वाले लोग तो बिलकुल नहीं।


आगे का रास्ता

शोधकर्ताओं का कहना है कि एआई के साथ नैतिक जिम्मेदारी साझा करने का सवाल समाज के सामने खड़ा हो गया है।

  • एआइ इंटरफेस को ऐसा होना चाहिए कि इंसानों के फैसले साफ दिखें और जिम्मेदारी टाली न जा सके।
  • धुंधले लक्ष्य तय करने के बजाय स्पष्ट नियम और सीमाएं हों।
  • डिफॉल्ट सेटिंग्स ऐसी हों, जो हानिकारक काम को मानने से मना कर दें।

ये अध्ययन नेचर (Nature) जर्नल में प्रकाशित हुआ है।

Published on:
24 Sept 2025 05:38 pm
Also Read
View All

अगली खबर