Wednesday, November 22, 2023

एक खतरनाक चुनौती है 'डीप फेक '

 प्रधानमंत्री नरेंद्र मोदी ने हाल ही में  'डीप फेकबनाने के लिए आर्टिफिशियल इंटलीजेंस (AI) के दुरुपयोग को चिह्नित किया और कहा कि मीडिया को इस संकट के बारे में लोगों को शिक्षित करना चाहिए। प्रधानमंत्री सोशल मीडिया प्लेटफॉर्म पर उनके वायरल वीडियो के बारे में चर्चा कर रहे थे जिनमें वो गाना गाते और गरबा खेलते हुए दिखाई दे रहे हैं।असल में उस वीडियो में प्रधानमंत्री नरेन्द्र मोदी नहीं थे |यह आर्टिफिशियल इंटलीजेंस (AI) द्वारा निर्मित एक डीप फेक था |फोटो और वीडियो से छेड़ छाड़ कर बने डीप फेक साल 2016 से ही चलन में हैं लेकिन तब इनका ज्यादातर इस्तेमाल मजाक में होता था |लेकिन अब लिप सिंक कर  डीपफेक बनने लगे हैं |पांच साल पहले ऐसा करने के लिए बहुत से सारे इंटरनेट डाटा की जरुरत पड़ती थी लेकिन अब एक से दो मिनट में कोई भी 'डीप फेकबना सकता है |जिसके लिए किसी ख़ास तकनीकी कौशल की जरुरत भी नहीं है |लेन्सा ए आई, 'डीप फेक वेब ,रिफेस ,माई हेरिटेज और डीप फेस लैब जैसी सैकड़ो वेबसाईट और एप हैं जहाँ कोई भी किसी का 'डीप फेकबना सकता है |ऐसे में वो लोग ज्यादा खतरे में हैं जिनकी तस्वीरें और वीडियो इंटरनेट पर बहुतायत में उपलब्ध हैं |

यह भी कैसी विडंबना है कि तकनीक ने एक तरफ हमारे जीवन को काफी आसान बनाया हैदूसरी तरफ कई स्तरों पर अराजकता भी पैदा कर दी है। आज सूचनाओं के संजाल में यह तय करना मुश्किल है कि क्या सही है क्या गलत। इससे हमारे समाज के सामने एक नई चुनौती पैदा हो गई है। गलत सूचनाओं को पहचानना और उनसे निपटना आज के दौर के लिए एक बड़ा सबक है। फेक न्यूज आज के समय का सच है। फेक न्यूज ज्यादातर भ्रमित करने वाली सूचनाएं होती हैं। अक्सर झूठे संदर्भ या गलत संबंधों को आधार बनाकर ऐसी सूचनाएं फैलाई जाती हैं। कुछ साल पहलेपत्रकारिता में आर्टीफीशियल इंटेलिजेंस के आगमन  ने  पत्रकारिता उद्योग में काफी उम्मीदें बढ़ाई थी कि इससे  समाचारों का वितरण  एक नयी पीढी में पहुंचेगा और पत्रकारिता जगत में  क्रांतिकारी उलटफेर होगा। उम्मीद तो यह भी जताई जा रही थी कि आर्टीफीशियल इंटेलिजेंस से फेक न्यूज  और मिस इन्फोर्मेशन  के प्रसार को रोकने का एक प्रभावी तरीका भी मिल जाएगा पर व्यवहार में इसके उलट ही हो रहा है | एक तरफ प्रौद्योगिकी ने आर्थिक और सामाजिक विकास किया है तो दूसरी फेक न्यज  में काफी  वृद्धि हुई हैलोकतांत्रिक राजनीति के लिए अड़चन  पैदा करने में और चारित्रिक हत्या करने में  इंटरनेट एक शक्तिशाली औजार के रूप में उभरा है|अपने सरलतम रूप मेंएआई को इस तरह से समझा जा सकता है कि उन चीजों को करने के लिए कंप्यूटर का उपयोग किया जाता  है जिनके लिए मानव बुद्धि की आवश्यकता होती है।

फेक न्यूज की समस्या को डीप फेक ने और ज्यादा गंभीर बना दिया है |असल में डीप फेक में आर्टिफिसियल इंटेलीजेंस एवं आधुनिक तकनीकों के इस्तेमाल के जरिए किसी वीडियो क्लिप  या फोटो पर किसी और व्यक्ति का चेहरा लगाने का चलन तेजी से बढ़ा हैइसके जरिए कृत्रिम तरीके से ऐसे क्लिप या फोटो विकसित कर लिए जा रहे हैं जो देखने में बिल्कुल वास्तविक लगते हैं|‘डीपफेकएक बिल्कुल अलग  तरह  की समस्या  है इसमें वीडियो सही होता है पर तकनीक से चेहरेवातावरण या असली औडियो बदल दिया जाता है और देखने वाले को इसका बिलकुल पता नहीं लगता कि वह डीप फेक वीडियो देख रहा है |एक बार ऐसे वीडियो जब किसी सोशल मीडिया प्लेटफोर्म पर आ जाते हैं तो उनकी प्रसार गति बहुत तेज हो जाती हैदेश में जहाँ डिजीटल साक्षरता बहुत कम है वहां डीप फेक वीडियो समस्या को गंभीर करते है |हालाँकि  ऐसे वीडियो को पकड़ना आसान भी हो सकता है क्योंकि ऐसे वीडियो इंटरनेट पर मौजूद असली वीडियो से ही बनाये जा सकते हैं पर इस काम को करने के लिए जिस धैर्य की जरुरत होती हैवह भारतीयों के पास वहाट्स एप मेसेज को फॉरवर्ड करने में नहीं दिखती |ऐसे में जब फेक न्यूज वीडियो के रूप में मिलेगी तो लोग उसे तुरंत आगे बढ़ने में नहीं हिचकते |

डीपफ़ेक बेहद पेचीदा तकनीक है. इसके लिए मशीन लर्निंग यानी कंप्यूटर में दक्षता होनी चाहिए|डीपफे़क कंटेंट दो एल्गोरिदम का उपयोग करके बनाई जाती हैजो एक दूसरे के साथ प्रतिस्पर्धा करती है|एक को डिकोडर कहते हैं तो दूसरे को एनकोडर|इसमें फेक डिजिटल कंटेंट बनाता है और डिकोडर से यह पता लगाने के लिए कहता है कि कंटेंट रियल है या नकली|हर बार डिकोडर कंटेंट को रियल या फे़क के रूप में सही ढंग से पहचानता हैफिर वह उस जानकारी को एनकोडर को भेज देता है ताकि अगले डीपफे़क में गलतियां सुधार करके उसे और बेहतर किया जा सके|दोनों प्रक्रियाओं को मिलाकर जेनरेटिव एडवर्सरियल नेटवर्क बनाते हैं जिसे जीएएन कहा जाता है|

एक बार ऐसे वीडियो जब किसी सोशल मीडिया प्लेटफोर्म पर आ जाते हैं तो उनकी प्रसार गति बहुत तेज हो जाती है|इंटरनेट पर ऐसे करोडो डीप फेक वीडियो मौजूद हैंइस तकनीक की शुरुआत अश्लील कंटेंट बनाने से हुईपोर्नोग्राफी में इस तकनीक का काफी इस्तेमाल होता है. अभिनेता  और अभिनेत्री  का चेहरा बदल के अश्लील कंटेंट पोर्न साइट्स पर पोस्ट किया जाता है |

डीपट्रेस की रिपोर्ट के अनुसार,2019 में ऑनलाइन पाए गए डीपफेक वीडियो में छियानबे प्रतिशत अश्लील कंटेंट था|इसके अलावा इस तकनीक का इस्तेमाल मनोरंजन के लिए भी किया जाता है. इन डीपफे़क वीडियो का मकसद देखनेवालों को ये यकीन दिलाना होता है जो हुआ ही नहीं है | डीपफे़क कंटेंट की पहचान करने के लिए कुछ ख़ास चीज़ो पर ध्यान देना बेहद ज़रूरी है|उनमें सबसे पहले आती है चेहरे की स्थिति | अक्सर डीपफे़क तकनीक चेहरे और आँख की स्थिति  में मात खा जाता हैइसमें पलकों का झपकना भी शामिल है|

ऐसे में डीप फेक वीडियो के प्रसार को रोकने के लिए बुनियादी शिक्षा में मीडिया साक्षरता और आलोचनात्मक सोच को पाठ्यक्रम में  शामिल करने की आवश्यकता है ताकि जागरूकता को बढ़ावा दिया जा सकेजिससे  लोगों को फेक न्यूज  से बचाने में मदद करने के लिए एक सक्रिय दृष्टिकोण का निर्माण किया जा सके। डीपफेक और फेक न्यूज  से सतर्क रहने के लिए हमें आज और आने वाले कल के जटिल डिजिटल परिदृश्य वाले भविष्य  के लिएसभी उम्र के लोगों को तैयार करने में पूरे भारत में एक बहु-आयामीक्रॉस-सेक्टर दृष्टिकोण की आवश्यकता है।जिसमें एक अहम् मुद्दा अपनी निजता को बचाए रखने का भी है |'डीप फेकका शिकार कोई भी कभी भी हो सकता है |अगर हम इस नजरिये से सोचेंगे तो 'डीप फेककी समस्या से लड़ने में ज्यादा आसानी होगी |

 प्रभात खबर में 22/11/2023 को प्रकाशित 


No comments:

पसंद आया हो तो