डीपफेक अब एक शरारत नहीं बल्कि राजनीतिक हेरफेर और वित्तीय धोखाधड़ी का एक शक्तिशाली हथियार बन चुका है। भारत जैसे बड़े लोकतंत्र में चुनावों के दौरान नेताओं के नकली वीडियो और ऑडियो का वायरल होना आम बात हो गई है। हाल ही संपन्न हुए बिहार विधानसभा चुनाव फिल्म एक्टर मनोज बाजपेयी का एक वीडियो वायरल हुआ था जिसमें वह आरजेडी के समर्थन में बयान देते नजर आ रहे थे, पड़ताल करने पर मालूम चला यह वीडियो एआई जेनरेटेड है, और एक्टर को सफाई तक पेश करनी पड़ी। पिनड्रॉप की 2025 में आई एक रिपोर्ट के मुताबिक डीपफेक और वॉयस-क्लोनिंग आधारित धोखाधड़ी के मामलों में 1,300 प्रतिशत तक की वृद्धि दर्ज की गई है वहीं वेबसाइट साई-टेक टुडे द्वारा संकलित आँकड़े बताते हैं कि 2023 में जहाँ लगभग 5 लाख डीपफेक मौजूद थे, वहीं 2026 तक इनकी संख्या बढ़कर 80 लाख तक पहुँचने का अनुमान है। 2021 में यूक्रेन के राष्ट्रपति व्लादिमीर जेलेंस्की का एक डीपफेक वीडियो वायरल किया गया था जिसमें वे सैनिकों को रूस के सामने आत्मसमर्पण करने का आदेश दे रहे थे, इसी तरह इंडोनेशिया के पूर्ण राष्ट्रपति सहारतो की मृत्यु के बाद उनका एक नकली भाषण डीपफेक के रूप में बनाया गया था। ब्लैकबर्ड एआई नामक संस्था के अध्ययन के मुताबिक 2024 में लोकसभा चुनाव के दौरान 75 प्रतिशत वोटर्स को राजनीतिक डीपफेक कंटेंट मिला और वहीं 25 प्रतिशत यूजर्स ने उसे सच भी समझ लिया। भारतीय मीडिया में ऐसी कई खबरें आई जिनमें चुनावी रैली के दौरान पीएम मोदी गरबा नृत्य करते नजर आ रहे थे, बाद में जांच में ये साबित हुआ कि ये एआई जनित डीपफेक वीडियो है।
इस कंटेंट की बढ़ती बाढ़ ने एक नये शब्द सूचना प्रदूषण को जन्म दिया है, जहाँ इंटरनेट पर मौजूद डेटा का एक बहुत बड़ा हिस्सा अब मशीन द्वारा निर्मित, निम्न गुणवत्ता वाला और अप्रामाणिक है। यूनेस्को के मुताबिक सिंथेटिक मीडिया के अंतर्गत चेहरे की नकल करना (फेस स्वैप), लिप-सिंक या आवाज की नकल (वॉयस क्लोनिंग ) जैसी तकनीकों का इस्तेमाल किया जा रहा है, इसके साथ ही भाषा मॉडल जैसे चैटजीपीटी, जैमिनी जो एक प्रॉम्ट से लेख, संवाद या छवियाँ तैयार कर सकते हैं का उपयोग बड़ी मात्रा में किया जा रहा है। ये जेनरेटिव एआई कंटेंट जेनरेटिव एडवर्सेरियल नेटवर्क पद्धित का उपयोग करते हैं। इनकी मदद से चित्र, वीडियो और आवाज पूरी तरह से नए सिरे से बनाई जाती है, दूसरी ओर मीडियो को बदलकर उसे तोड़ मरोड़ कर हूबहू नकल तैयार की जाती है। यह सब इतना य़थार्थपूर्ण हो गयाहै कि एक सामान्य श्रोता या दर्शक के लिए असली और नकली में फर्क करना बेहद मुश्किल हो गया है। इसके साथ ही आर्थिक धोखाधड़ी के मामलों में भी इस तरह के सिंथेटिक मीडिया का उपयोग भरपूर हो रहा है, साल 2024 में ऐसे कई मामले सामने आये जिसमें वॉयस क्लोनिंग के जरिए जालसाजों ने महिलाओं, बुजुर्गों और नौजवानों से पैसे ऐंठ लिए। हाल ही में हैदराबाद की 72 वर्षीय महिला को उसके रिश्तेदार की आवाज में वॉयस क्लोनिंग करके करीब 2 लाख रूपये ठगने का मामला सामने आया था। मैक्फी की एक हालिया रिपोर्ट के मुताबिक भारत में हुए एआई आधारित फेक वॉयस कॉल स्कैम में करीब 83 प्रतिशत लोगों शिकार हुए लोगों ने आर्थिक नुकसान उठाया वहीं इनमें 48 प्रतिशत से अधिक लोगों का नुकसान पचास हजार से भी अधिक रहा। रिपोर्ट यह भी बताती है कि करीब 69 प्रतिशत लोगों को असली और एआई क्लोन आवाज में फर्क करना मुश्किल लगता है।
वहीं अब इस तरह के सिंथेटिक कंटेंट ने अदालतों के सामने भी एक बड़ी चुनौती खड़ी कर दी है, पहले जहाँ डिजिटल सबूतों को मजबूत और भरोसेमंद माना जाता था वहीं अब वे संदेह के घेरे में हैं। 2024 में गार्टनर की ओर से जारी एक रिपोर्ट में चेतावनी दी गई कि 2027 तक दुनियाभर के कोर्ट में पेश किए जाने वाले डिजिटल सबूतों में 30 प्रतिशत से अधिक सामग्री एआई-छेड़छाड़ वाली हो सकती है। यानी अदालतों को अब हर फोटो, वीडियो और ऑडियो की भी बारीकी से जाँच करनी पड़ेगी, क्योंकि पहली नजर में असली और नकली में फर्क करना अब मुश्किल हो गया है। कई देशों ने इस समस्या से निपटने के लिए एआई फोरेंक्सिक्स यूनिट बनाने का फैसला लिया है ताकि डिजिटल टैंपरिंग को पकड़ा जा सके। इसके साथ ही शिक्षा के क्षेत्र में भी सिंथेटिक एआई कंटेंट ने स्कूलों और कॉलेजों के लिए नई मुसीबत पैदा कर दी है। हाल ही में टर्नट्रिन की एक रिपोर्ट के मुताबिक कॉलेज असाइनमेंट में एआई जनित कंटेंट तेजी से बढ़ा है। हालांकि कई विश्वविद्यालयों ने एआई डिटेक्शन टूल अपनाए हैं मगर विशेषज्ञ बताते हैं कि ये उन्नत मॉडल्स इन टूल्स को भी धोखा देने में कामयाब हो जाते हैं। मिनटों में निबंध, रिसर्च पेपर और प्रोजेक्ट होने वाली दुनिया में असली मेहनत और विश्लेषण कौशल कहीं पीछे छूटता जा रहा है।
सिंथेटिक कंटेंट का एक बड़ा खतरा अब सर्टिफिकेट, डिग्री और पहचान-पत्र जैसे संवेदनशील दस्तावेजों पर भी मंडराने लगा है। एआई की मदद से मिनटों में फेक अनुभव-पत्र, नकली डिग्री या ट्रेनिंग सर्टिफिकेट तैयार किए जा सकते हैं, जो देखने में इतने असली लगते हैं कि पहली जांच में पकड़ में ही नहीं आते। हाल ही में भारतीय रेलवे में भी एक चौंकाने वाला मामला सामने आया, जहाँ यात्री एआई-जनरेटेड फर्जी ट्रेन टिकट के साथ यात्रा करते हुए पकड़े गए। टिकट पर QR कोड से लेकर पूरा लेआउट तक इतना असली दिख रहा था कि शुरुआती जांच में किसी को शक तक नहीं हुआ, लेकिन वेरिफिकेशन में पूरा खेल खुल गया। यह घटनाएँ कोई एक-दो मामले नहीं, बल्कि उस बड़े खतरे की स्पष्ट आहट हैं जिसकी ओर हम तेजी से बढ़ रहे हैं। एक ऐसी दुनिया, जहाँ असली और नकली में फर्क करना मुश्किल होता जाएगा और हम धीरे-धीरे हर दस्तावेज़, हर प्रमाण और हर पहचान पर शक करने को मजबूर हो जाएंगे।
कई देश और कंपनियाँ अब इस समस्या को गंभीरता से लेकर कार्रवाई में जुट गई हैं। भारत सरकार ने हाल में ही सोशल मीडिया प्लेटफॉर्म पर ऐसे एआई निर्मित फोटो/वीडियो पर स्पष्ट लेबल लगाने के आदेश दिए हैं, ड्रॉफ्ट गाइ़डलाइन्स के मुताबिक AI-जेनरेटेड चित्रों या वीडियो में कम से कम 10% हिस्सा मार्कर लगाना होगा ताकि दर्शक पहचान सकें कि यह असली नहीं है । इसके साथ ही बॉलीवुड सितारे भी अपने नाम-शब्द व छवि के बिना अनुमति के उपयोग पर अदालत का रूख कर रहे हैं, जिससे भविष्य में डीपफेक निर्मातओं के खिलाफ सख्त कानूनी कार्रवाई की गुंजाइश बढ़ी है। इसके अतिरिक्त तकनीकी तौर पर भी चेहरों की सूक्ष्म हरकतों, स्वर मापदंडों को पहचानने वाले डीपफेक डिटेक्शन टूल विकसित किये जा रहे हैं। इन तकनीकों के साथ डिजिटल साक्षरता को बढ़ाना उतना ही आवश्यक है, इंटरनेट यूजर्स को फर्जी खबरो,वीडियो और इमेज की पहचान करनी सीखनी चाहिए और संदिग्ध सामग्री मिलने पर उसे रिपोर्ट करना चाहिए। कुल मिलाकर मीडिया प्लेटफॉर्म, सरकार और समाज जब ये तीनों मिलकर सतर्क रहेंगे तभी हम इस सूचना प्रदूषण के युग में सच को ढूंढ पायेंगे।
दैनिक जागरण में 09/01/2026 को प्रकाशित

No comments:
Post a Comment