Thursday, November 30, 2023

 

आजकल महेंद्र सिंह धोनी एक विज्ञापन के अंत में बोलते है मत बो.इंटरनेट के आगमन और सोशल  मीडिया के उदय ने जहाँ आम इंसान को अपनी बात रखने का मौक़ा दिया.वहीं बहुत सी चुनौतियां भी दी हैं.औपचारिक और अनौपचारिकता के बीच का भेद मिटा है .बात जब हम दोस्तों से करते हैं तो उसका लहजा अलग होता है पर वही बात जब हम सार्वजनिक मंच पर करते हैं तो उसको कहने का तरीका अलग.सोशल मीडिया पर सब ही दोस्त होते हुए भी दोस्त नहीं होते हैं. ये बात अभी हमें सीखनी है.नतीजा हर बात पर हर कोई अपनी राय दे रहा है चाहे उसकी जरुरत हो या न हो.यही से शुरू होता है ट्रोलिंग संस्कृति का निर्माण.

अभी अब्दुल रज्जाक की ऐश्वर्या राय पर  की गई टिप्पणी पर मुझे कुछ नही कहना है. पर जब इस तरह की बातें होती है तो हम भूल जाते है कि बोली एक अमोल है जो कोई बोले जानु लिए तराजू तौल के तब मुख बाहर आन. कबीर दास जी का यह दोहा कई सौ साल बीतने के  बाद भी प्रासंगिक बना हुआ है.

हम कितने भाग्यशाली  है कि हमें बोलने के लिए ‘जबान’ मिली और सुनने के लिए ‘कान’.मेरे शहर लखनऊ के एक मॉल में  रेस्टोरेंट है. जहां ज्यादातर वेटर मूक बधिर है.वे बड़े प्यार से आपको भोजन कराते हैं.अपनी इशारों की भाषा में वे सबके साथ सहज होते हैं.जब आप उनके बीच में होते है तब आपको समझ आता है कि हम कितने खुशनसीब है. कुछ भी कहने के लिए आपको सिर्फ जबान हिलानी है.आपको अपनी बात समझाने के लिए मेहनत नही करनी है.जरा सोचिये मूक बधिरों को अपनी बात कहने के लिए कितनी मेहनत करनी पड़ती है.यही बात उन्हें  जिम्मेदार बनाती है.वे शब्दों का महत्व जानते हैं. उनकी इशारों की भाषा में कुछ भी निजी नही होता है . सब कुछ सार्वजनिक और शायद इसीलिए वो हमसे ज्यादा जिम्मेदार होते है. हम कोई स्टेट्स किसी सोशल मीडिया प्लेटफॉर्म पर डालते हैं और देखते हैं कि अचानक उसमें कुछ ऐसे लोग स्टेट्स के सही मंतव्य को समझे बगैर टिप्पणियाँ करने लगते हैं जिनसे हमारी किसी तरह की कोई जान पहचान नहीं होती .यह एक मनोवैज्ञानिक प्रक्रिया होती है जिसमें ईगो का एक महत्वपूर्ण स्थान होता है  . हमारा ईगो, डिजिटल युग को पसंद क्यों करता है क्योंकि यह व्यक्तिवाद को बढ़ावा देता है जिसमें शामिल है आई’’ ‘मी और माई” “आई-फोन. जिसमें सामूहिकता की कहीं कोई जगह नहीं है और शायद इसलिए लोगों ज्यादा से ज्यादा लाईक्स,शेयर और दोस्त वर्चुअल दुनिया में पाना चाहते हैं .

ये स्थिति घातक भी  हो सकती हैयह एक और संकट को जन्म दे रहा है जिससे लोग अपने वर्तमान का लुत्फ़ न उठाकर  अपने अतीत और भविष्य के बीच झूलते रहते हैं .अपनी  पसंदीदा धुन के साथ हम मानसिक रूप से अपने वर्तमान स्थिति को छोड़ सकते हैं और अपने अस्तित्व को अलग डिजिटल वास्तविकता में परिवर्तित कर सकते हैं.वैसे भी ईगो के लिए वर्तमान के कोई मायने नहीं होते हैंईगो मन अतीत के लिए तरसता है क्योंकि ये आपको परिभाषित करता हैऐसे ही ईगो अपनी किसी आपूर्ति के लिए भविष्य की तलाश में रहता हैहमारे डिजिटल उपकरण वर्तमान से बचने का बहाना देते हैं और आक्रमकता को बढ़ावा देते हैं .फेसबुक,ट्विटर  जैसी तमाम सोशल नेटवर्किंग साईट्स की सफलता के पीछे हमारे दिमाग की यही प्रव्रत्ति जिम्मेदार है .लोग आमतौर पर ऑनलाइन होने की तुलना में आमने-सामने ज्यादा विनम्र होते हैं।चलते चलते बोलते वक्त जिम्मेदार बनिये वो चाहे वर्चुअल दुनिया हो या रीयल.

प्रभात खबर में 30/11/2023 को प्रकाशित 

Thursday, November 23, 2023

अंगदान में लिंगभेद का मामला

 दुनिया की बड़ी आबादी वाले देशों में से एक भारत में प्रतिवर्ष लगभग 3,00,000 लोग वक़्त पर अंग न मिल पाने के कारण अपनी जान गंवा देते हैं |औसतन  कम से कम 20 व्यक्तियों की रोज़ाना मौत अंगदान की कमी से हो जाती है |लेकिन उम्मीद की एक किरण देश की आधी आबादी से नजर आ रही है |2021 में एक्सपेरिमेंटल एंड क्लिनिकल ट्रांसप्लांटेशन जर्नल में प्रकाशित एक शोध पत्र  में जीवित अंग प्रत्यारोपण के मामले में देश में भारी लैंगिक असमानता पाई गई । आंकड़ों के अनुसार 2019 में अंग प्रत्यारोपण का विश्लेषण किया और पाया कि अस्सी प्रतिशत  जीवित अंग दाता महिलाएं हैं, मुख्य रूप से पत्नी या मां जबकि अस्सी प्रतिशत  प्राप्तकर्ता पुरुष हैं।देश में अंग प्राप्त करने वाली प्रत्येक महिला के मुकाबले चार पुरुषों का अंग प्रत्यारोपण हुआ है| 1995 से 2021 तक के आंकड़ों से पता चलता है कि 36,640 अंग प्रत्यारोपण किए गए, जिनमें से 29,000 से अधिक पुरुषों के लिए और 6,945 महिलाओं के लिए थे| अध्ययन में यह भी पाया गया कि अंग दान करने के लिए अधिकांश महिलाओं का प्राथमिक कारण उन पर परिवार में देखभाल करने वाला होने
और देने वाला होने का सामाजिक-आर्थिक दबाव है और चूंकि ज्यादातर मामलों में पुरुष कमाने वाले होते हैं, इसलिए वे किसी भी सर्जरी से गुजरने से झिझकते हैं| हालांकि अंगदान को लेकर लिंगभेद के दूसरे मोर्चे भी हैं| पुरुषों  के मुक़ाबले महिलायें  ज़्यादा अंगदान क्यों करती हैं, इसकी कई वजहें हो सकती हैं |माना जाता है कि महिलाएं, पुरुषों के मुक़ाबले ज़्यादा सम्वेदनशील  होती हैं| उन्हें अपने रिश्तेदारों  से ज़्यादा हमदर्दी होती है|लेकिन इसका बड़ा कारण आर्थिक ही है और यह अंगदान महिलाओं द्वारा किये जाने इसकी बड़ी वजह आर्थिक बताई जाती है| घर में नियमित आमदनी का स्रोत  का उद्गम  पुरुषों से ही होता  है| बीमारी या ट्रांसप्लांट के दौरान, दान देने वाले को अक्सर महीने-दो महीने के लिए घर बैठना पड़ता है| इससे दोहरा आर्थिक नुक़सान होता है| इस परिस्थिति में  अक्सर महिलाओं को ये लगता है कि वे  अंग दान कर के घर को होने वाला आर्थिक नुक़सान को कम कर सकती हैं|

यदि महिलायें आर्थिक रूप से पुरुषों के बराबर होंगी तो यह आंकड़ा बराबरी का हो सकता है पर फिलहाल जीवन के हर क्षेत्र में महिलायें पितृसत्ता के दंश का शिकार होते हुए भी त्याग के ऐसे प्रतिमान गढ़ रही हैं जिसकी कहीं चर्चा नहीं हो रही है |महिलाओं का वित्तीय रूप से आत्म निर्भर न होने के कारण वे खुद भी कई समस्याओं का सामना कर रही होती है|जैसे प्राकृतिक आपदाओं के दौरान पुरुषों के मुक़ाबले महिलाओं को ज्यादा समस्याओं का सामना करना पड़ता  है। वर्ष  2007 में लंदन स्कूल ऑफ इक्नोमिक्स और एसेक्स विश्वविद्यालया के शोधकर्ताओं द्वारा किए १४१ देशों में किए गए गए एक अध्ययन के अनुसार वर्ष १९८१ से लेकर वर्ष २००२ तक हुई प्राकृतिक आपदाओं के दौरान मरने वाली महिलाओं की संख्या पुरुषों की संख्या से काफी अधिक थी। साथ ही इस शोध में यह तथ्य भी सामने आया कि जैसे-जैसे प्राकृतिक आपदा की विभीषिका बढ़ती गयी वैसे-वैसे पुरुष और महिला मृत्यु-दर के बीच का फासला भी बढ़ता गया। अब इस पुरुषवादी समाज को भी सोचना होगा कि हम आर्थिक रूप से उन्हें स्वावलंबी बनाने में न केवल  मदद करें बल्कि उन्हें  इस बात का एहसास भी कराएं कि समाज की गाड़ी को चलाने के लिए जितनी जरुरत पुरुषों की है उतनी ही महिलाओं की भी |

दैनिक जागरण में 23/11/2023 को प्रकाशित 

Wednesday, November 22, 2023

एक खतरनाक चुनौती है 'डीप फेक '

 प्रधानमंत्री नरेंद्र मोदी ने हाल ही में  'डीप फेकबनाने के लिए आर्टिफिशियल इंटलीजेंस (AI) के दुरुपयोग को चिह्नित किया और कहा कि मीडिया को इस संकट के बारे में लोगों को शिक्षित करना चाहिए। प्रधानमंत्री सोशल मीडिया प्लेटफॉर्म पर उनके वायरल वीडियो के बारे में चर्चा कर रहे थे जिनमें वो गाना गाते और गरबा खेलते हुए दिखाई दे रहे हैं।असल में उस वीडियो में प्रधानमंत्री नरेन्द्र मोदी नहीं थे |यह आर्टिफिशियल इंटलीजेंस (AI) द्वारा निर्मित एक डीप फेक था |फोटो और वीडियो से छेड़ छाड़ कर बने डीप फेक साल 2016 से ही चलन में हैं लेकिन तब इनका ज्यादातर इस्तेमाल मजाक में होता था |लेकिन अब लिप सिंक कर  डीपफेक बनने लगे हैं |पांच साल पहले ऐसा करने के लिए बहुत से सारे इंटरनेट डाटा की जरुरत पड़ती थी लेकिन अब एक से दो मिनट में कोई भी 'डीप फेकबना सकता है |जिसके लिए किसी ख़ास तकनीकी कौशल की जरुरत भी नहीं है |लेन्सा ए आई, 'डीप फेक वेब ,रिफेस ,माई हेरिटेज और डीप फेस लैब जैसी सैकड़ो वेबसाईट और एप हैं जहाँ कोई भी किसी का 'डीप फेकबना सकता है |ऐसे में वो लोग ज्यादा खतरे में हैं जिनकी तस्वीरें और वीडियो इंटरनेट पर बहुतायत में उपलब्ध हैं |

यह भी कैसी विडंबना है कि तकनीक ने एक तरफ हमारे जीवन को काफी आसान बनाया हैदूसरी तरफ कई स्तरों पर अराजकता भी पैदा कर दी है। आज सूचनाओं के संजाल में यह तय करना मुश्किल है कि क्या सही है क्या गलत। इससे हमारे समाज के सामने एक नई चुनौती पैदा हो गई है। गलत सूचनाओं को पहचानना और उनसे निपटना आज के दौर के लिए एक बड़ा सबक है। फेक न्यूज आज के समय का सच है। फेक न्यूज ज्यादातर भ्रमित करने वाली सूचनाएं होती हैं। अक्सर झूठे संदर्भ या गलत संबंधों को आधार बनाकर ऐसी सूचनाएं फैलाई जाती हैं। कुछ साल पहलेपत्रकारिता में आर्टीफीशियल इंटेलिजेंस के आगमन  ने  पत्रकारिता उद्योग में काफी उम्मीदें बढ़ाई थी कि इससे  समाचारों का वितरण  एक नयी पीढी में पहुंचेगा और पत्रकारिता जगत में  क्रांतिकारी उलटफेर होगा। उम्मीद तो यह भी जताई जा रही थी कि आर्टीफीशियल इंटेलिजेंस से फेक न्यूज  और मिस इन्फोर्मेशन  के प्रसार को रोकने का एक प्रभावी तरीका भी मिल जाएगा पर व्यवहार में इसके उलट ही हो रहा है | एक तरफ प्रौद्योगिकी ने आर्थिक और सामाजिक विकास किया है तो दूसरी फेक न्यज  में काफी  वृद्धि हुई हैलोकतांत्रिक राजनीति के लिए अड़चन  पैदा करने में और चारित्रिक हत्या करने में  इंटरनेट एक शक्तिशाली औजार के रूप में उभरा है|अपने सरलतम रूप मेंएआई को इस तरह से समझा जा सकता है कि उन चीजों को करने के लिए कंप्यूटर का उपयोग किया जाता  है जिनके लिए मानव बुद्धि की आवश्यकता होती है।

फेक न्यूज की समस्या को डीप फेक ने और ज्यादा गंभीर बना दिया है |असल में डीप फेक में आर्टिफिसियल इंटेलीजेंस एवं आधुनिक तकनीकों के इस्तेमाल के जरिए किसी वीडियो क्लिप  या फोटो पर किसी और व्यक्ति का चेहरा लगाने का चलन तेजी से बढ़ा हैइसके जरिए कृत्रिम तरीके से ऐसे क्लिप या फोटो विकसित कर लिए जा रहे हैं जो देखने में बिल्कुल वास्तविक लगते हैं|‘डीपफेकएक बिल्कुल अलग  तरह  की समस्या  है इसमें वीडियो सही होता है पर तकनीक से चेहरेवातावरण या असली औडियो बदल दिया जाता है और देखने वाले को इसका बिलकुल पता नहीं लगता कि वह डीप फेक वीडियो देख रहा है |एक बार ऐसे वीडियो जब किसी सोशल मीडिया प्लेटफोर्म पर आ जाते हैं तो उनकी प्रसार गति बहुत तेज हो जाती हैदेश में जहाँ डिजीटल साक्षरता बहुत कम है वहां डीप फेक वीडियो समस्या को गंभीर करते है |हालाँकि  ऐसे वीडियो को पकड़ना आसान भी हो सकता है क्योंकि ऐसे वीडियो इंटरनेट पर मौजूद असली वीडियो से ही बनाये जा सकते हैं पर इस काम को करने के लिए जिस धैर्य की जरुरत होती हैवह भारतीयों के पास वहाट्स एप मेसेज को फॉरवर्ड करने में नहीं दिखती |ऐसे में जब फेक न्यूज वीडियो के रूप में मिलेगी तो लोग उसे तुरंत आगे बढ़ने में नहीं हिचकते |

डीपफ़ेक बेहद पेचीदा तकनीक है. इसके लिए मशीन लर्निंग यानी कंप्यूटर में दक्षता होनी चाहिए|डीपफे़क कंटेंट दो एल्गोरिदम का उपयोग करके बनाई जाती हैजो एक दूसरे के साथ प्रतिस्पर्धा करती है|एक को डिकोडर कहते हैं तो दूसरे को एनकोडर|इसमें फेक डिजिटल कंटेंट बनाता है और डिकोडर से यह पता लगाने के लिए कहता है कि कंटेंट रियल है या नकली|हर बार डिकोडर कंटेंट को रियल या फे़क के रूप में सही ढंग से पहचानता हैफिर वह उस जानकारी को एनकोडर को भेज देता है ताकि अगले डीपफे़क में गलतियां सुधार करके उसे और बेहतर किया जा सके|दोनों प्रक्रियाओं को मिलाकर जेनरेटिव एडवर्सरियल नेटवर्क बनाते हैं जिसे जीएएन कहा जाता है|

एक बार ऐसे वीडियो जब किसी सोशल मीडिया प्लेटफोर्म पर आ जाते हैं तो उनकी प्रसार गति बहुत तेज हो जाती है|इंटरनेट पर ऐसे करोडो डीप फेक वीडियो मौजूद हैंइस तकनीक की शुरुआत अश्लील कंटेंट बनाने से हुईपोर्नोग्राफी में इस तकनीक का काफी इस्तेमाल होता है. अभिनेता  और अभिनेत्री  का चेहरा बदल के अश्लील कंटेंट पोर्न साइट्स पर पोस्ट किया जाता है |

डीपट्रेस की रिपोर्ट के अनुसार,2019 में ऑनलाइन पाए गए डीपफेक वीडियो में छियानबे प्रतिशत अश्लील कंटेंट था|इसके अलावा इस तकनीक का इस्तेमाल मनोरंजन के लिए भी किया जाता है. इन डीपफे़क वीडियो का मकसद देखनेवालों को ये यकीन दिलाना होता है जो हुआ ही नहीं है | डीपफे़क कंटेंट की पहचान करने के लिए कुछ ख़ास चीज़ो पर ध्यान देना बेहद ज़रूरी है|उनमें सबसे पहले आती है चेहरे की स्थिति | अक्सर डीपफे़क तकनीक चेहरे और आँख की स्थिति  में मात खा जाता हैइसमें पलकों का झपकना भी शामिल है|

ऐसे में डीप फेक वीडियो के प्रसार को रोकने के लिए बुनियादी शिक्षा में मीडिया साक्षरता और आलोचनात्मक सोच को पाठ्यक्रम में  शामिल करने की आवश्यकता है ताकि जागरूकता को बढ़ावा दिया जा सकेजिससे  लोगों को फेक न्यूज  से बचाने में मदद करने के लिए एक सक्रिय दृष्टिकोण का निर्माण किया जा सके। डीपफेक और फेक न्यूज  से सतर्क रहने के लिए हमें आज और आने वाले कल के जटिल डिजिटल परिदृश्य वाले भविष्य  के लिएसभी उम्र के लोगों को तैयार करने में पूरे भारत में एक बहु-आयामीक्रॉस-सेक्टर दृष्टिकोण की आवश्यकता है।जिसमें एक अहम् मुद्दा अपनी निजता को बचाए रखने का भी है |'डीप फेकका शिकार कोई भी कभी भी हो सकता है |अगर हम इस नजरिये से सोचेंगे तो 'डीप फेककी समस्या से लड़ने में ज्यादा आसानी होगी |

 प्रभात खबर में 22/11/2023 को प्रकाशित 


Friday, November 17, 2023

डीप फेक वीडियो आसान नहीं पहचान कर पाना

डिजिटल माध्यम पर दिखने वाली हर चीज सच नहीं होती, इसे डीप फेक वीडियो के बहुप्रसारित होने से भी समझा जा सकता है। हाल में एक अभिनेत्री की ऐसी वीडियो इंटरनेट मीडिया पर प्रसारित होने के बाद से इस बारे में चिंता बढ़ी है |हाल ही में अभिनेत्री रश्मिका मंदाना का एक डीप फेक वीडियो इंटरनेट मीडिया पर बहुप्रसारित हुआ है। इसने एक बार फिर यह बहस छेड़ दी है कि सूचनाओं के संजाल में यह तय करना बहुत मुश्किल है कि क्या सही है और क्या गलत। इससे हमारे समाज के सामने एक नई चुनौती पैदा हो गई है। वस्तुत: डिजिटल माध्यमों से हम तक पहुंचने वाली गलत सूचनाओं को पहचानना और उनसे निपटना आज के दौर के लिए एक बड़ा सबक है। फेक न्यूज आज के समय का सच है। फेक न्यूज ज्यादातर भ्रमित करने वाली सूचनाएं होती हैं। अक्सर झूठे संदर्भ या गलत संबंधों को आधार बनाकर ऐसी सूचनाएं फैलाई जाती हैं। लेकिन डीप फेक वीडियो समस्या को और गंभीर बनाते हैं। जैसे अभिनेत्री रश्मिका मंदाना के डीप फेक में हुआ, जिसमें शरीर किसी और का दिख रहा है, परंतु चेहरा रश्मिका का लगा हुआ था। इंटरनेट मीडिया पर तो लोग पहली बार में इस वीडियो की असलियत को पहचान ही नहीं पाए। एक झलक में देखने पर चेहरे के हाव भाव एकदम असली लग रहे थे। कई बार देखने पर ही यह समझा जा सकता है कि यह वीडियो फेक है। लिहाजा इस तरह के फर्जी वीडियो पर पूर्ण नियंत्रण के उपाय के बारे में विचार करना होगा।

वैसे केंद्र सरकार ने ऐसे डीप फेक वीडियो पर सख्त नाराजगी जाहिर की है। केंद्र सरकार ने एक्स, इंस्टाग्राम और फेसबुक समेत सभी इंटरनेट मीडिया प्लेटफार्मों से आइटी नियमों के तहत शिकायत मिलने के 24 घंटे के भीतर छेड़छाड़ की गई तस्वीरों को हटाने के लिए कहा है। यह सही है कि आर्टिफिशियल इंटेलिजेंस के आगमन ने पत्रकारिता जगत में काफी उम्मीद बढ़ाई थी कि इससे समाचारों का वितरण एक नई पीढ़ी तक पहुंचेगा और पत्रकारिता जगत में क्रांतिकारी परिवर्तन संभव हो सकता है। उम्मीद तो यह भी जताई जा रही थी कि आर्टिफिशियल इंटेलिजेंस से फेक न्यूज और मिस इन्फोर्मेशन के प्रसार को रोकने का एक प्रभावी तरीका भी मिल जाएगा, परंतु व्यवहार में इसके उलट ही हो रहा है। एक तरफ प्रौद्योगिकी ने आर्थिक और सामाजिक विकास किया है तो दूसरी फेक न्यूज में काफी वृद्धि हुई है। 

शक्तिशाली औजार के रूप में उभरा इंटरनेट : लोकतांत्रिक राजनीति के लिए अड़चन पैदा करने में और चारित्रिक हत्या करने में इंटरनेट एक शक्तिशाली औजार के रूप में उभरा है। फेक न्यूज की समस्या को डीप फेक ने और ज्यादा गंभीर बना दिया है। असल में डीप फेक में आर्टिफिशियल इंटेलिजेंस एवं आधुनिक तकनीकों के इस्तेमाल के जरिये किसी वीडियो क्लिप या फोटो पर किसी और व्यक्ति का चेहरा लगाने का चलन तेजी से बढ़ा है। इसके माध्यम से कृत्रिम तरीके से ऐसे क्लिप या फोटो विकसित कर लिए जा रहे हैं जो देखने में बिल्कुल वास्तविक लगते हैं। 'डीप फेक' एक बिल्कुल अलग तरह की समस्या है। इसमें वीडियो सही होता है, पर तकनीक से चेहरे, वातावरण या असली आडियो को बदल दिया जाता है और देखने वाले को इसका बिलकुल पता नहीं लगता कि वह डीप फेक वीडियो देख रहा है। एक बार ऐसे वीडियो जब किसी इंटरनेट मीडिया प्लेटफार्म पर आ जाते हैं तो उनकी प्रसार की गति बहुत तेज हो जाती है। 

इंटरनेट पर ऐसे करोडों डीप फेक वीडियो मौजूद हैं। देश में डिजिटल साक्षरता बहुत कम है, लिहाजा डीप फेक वीडियो समस्या को गंभीर करते हैं। इससे बचाव के लिए केंद्र सरकार ने आइटी नियमों के उपबंध और इंटरनेट मीडिया कंपनियों के दायित्वों का हवाला देते हुए इंटरनेट मीडिया प्लेटफार्म को एक एडवाइजरी जारी की है। इस  एडवाइजरी के अनुसार, इंटरनेट मीडिया प्लेटफार्म को उस सामग्री को हटाने या निष्क्रिय करने के लिए सभी उपाय करने चाहिए, जो फेक हैं। इसमें यह भी कहा गया है कि इंटरनेट मीडिया मध्यस्थों को नियमों और विनियमों, गोपनीयता नीति या उपयोगकर्ता समझौते को सुनिश्चित करने सहित उचित नियमों का पालन करना चाहिए और उपयोगकर्ताओं को किसी अन्य व्यक्ति का प्रतिरूपण करने वाली किसी भी सामग्री को पोस्ट नहीं करने के लिए सूचित करना चाहिए। 

डीप फेक, गलत सूचना का नवीनतम और उससे भी अधिक खतरनाक स्वरूप है। लिहाजा इंटरनेट मीडिया को इससे निपटने की जरूरत है। आइटी एक्ट 2000 के वर्ग 66 ई के तहत बिना अनुमति किसी की फोटो और वीडियो बनाने पर तीन साल की सजा और दो लाख रुपये जुर्माना का प्रविधान है। इस नियम के तहत गोपनीयता के उल्लंघन के दोषी पाए जाने पर कार्रवाई का नियम है। इसमें किसी की व्यक्तिगत फोटो बिना अनुमति कैप्चर करने और उसे शेयर करने के आरोप के तहत कार्रवाई हो सकती है। आइटी एक्ट सेक्शन 67 के तहत साफ्टवेयर या किसी अन्य इलेक्ट्रानिक तरीके से किसी की अश्लील फोटो बनाने और उसे शेयर करने पर तीन साल जेल और पांच लाख रुपये जुर्माना लगाया जा सकता है। ऐसा बार-बार करने पर अपराधी को पांच साल की जेल और दस लाख रुपये का जुर्माना देना पड़ सकता है। डीपफेक के मामले में आइपीसी की धारा 66सी, 66ई और 67 के तहत कार्रवाई की जा सकती है। इसमें आइपीसी की धारा 153ए और 295ए के तहत मुकदमा दर्ज करके कार्रवाई की जा सकती है।

दैनिक जागरण में 17/11/2023 को प्रकाशित 

Friday, November 10, 2023

चरित्र हनन की तकनीक

 पुष्पा’ जैसी सफल  फ़िल्म से प्रसिद्द हुई  अभिनेत्री  रश्मिका मंदाना की चर्चा फिलहाल उनकी एक्टिंग को न लेकर बल्कि एक वायरल वीडियो को लेकर हो रही है. डीपफ़ेक वीडियो के जरिए तैयार किये गए इस वीडियो में नज़र आ रही एक महिला को रश्मिका मंदाना की तरह दिखाने की कोशिश की गईअमिताभ बच्चन ने इस वीडियो का सन्दर्भ  देते हुए एक्स पर लिखा  कि इस मामले में क़ानूनी कार्रवाई होनी चाहिए|, केंद्रीय (राज्य प्रभार) मंत्री कौशल विकास और उद्यमशीलता मंत्रालय और इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्रालय राजीव चंद्रशेखर ने कहा है कि सोशल मीडिया प्लेटफॉर्म को ये सुनिश्चित करना चाहिए कि मिस इंफॉर्मेशनउनके प्लेटफॉर्म पर शेयर ना की जाए|कुछ साल पहलेपत्रकारिता में आर्टीफीशियल इंटेलिजेंस के आगमन  ने  पत्रकारिता उद्योग में काफी उम्मीदें बढ़ाई थी कि इससे  समाचारों का वितरण  एक नयी पीढी में पहुंचेगा और पत्रकारिता जगत में  क्रांतिकारी उलटफेर होगा। उम्मीद तो यह भी जताई जा रही थी कि आर्टीफीशियल इंटेलिजेंस से फेक न्यूज  और मिस इन्फोर्मेशन  के प्रसार को रोकने का एक प्रभावी तरीका भी मिल जाएगा पर व्यवहार में इसके उलट ही हो रहा है | एक तरफ प्रौद्योगिकी ने आर्थिक और सामाजिक विकास किया है तो दूसरी फेक न्यज  में काफी  वृद्धि हुई हैलोकतांत्रिक राजनीति के लिए अड़चन  पैदा करने में और चारित्रिक हत्या करने में  इंटरनेट एक शक्तिशाली औजार के रूप में उभरा है|

असल में डीप फेक में आर्टीफीशियल इंटेलीजेंस एवं आधुनिक तकनीकों के इस्तेमाल के जरिए किसी वीडियो क्लिप  या फोटो पर किसी और व्यक्ति का चेहरा लगाने का चलन तेजी से बढ़ा हैइसके जरिए कृत्रिम तरीके से ऐसे क्लिप या फोटो विकसित कर लिए जा रहे हैं जो देखने में बिल्कुल वास्तविक लगते हैं|‘डीपफेकएक बिल्कुल अलग  तरह  की समस्या  है इसमें वीडियो सही होता है पर तकनीक से चेहरेवातावरण या असली औडियो बदल दिया जाता है और देखने वाले को इसका बिलकुल पता नहीं लगता कि वह डीप फेक वीडियो देख रहा है | डीपफ़ेक बेहद पेचीदा तकनीक है. इसके लिए मशीन लर्निंग यानी कंप्यूटर में दक्षता होनी चाहिए|डीपफे़क कंटेंट दो एल्गोरिदम का उपयोग करके बनाई जाती हैजो एक दूसरे के साथ प्रतिस्पर्धा करती है|एक को डिकोडर कहते हैं तो दूसरे को एनकोडर|इसमें फेक डिजिटल कंटेंट बनाता है और डिकोडर से यह पता लगाने के लिए कहता है कि कंटेंट रियल है या नकली|हर बार डिकोडर कंटेंट को रियल या फे़क के रूप में सही ढंग से पहचानता हैफिर वह उस जानकारी को एनकोडर को भेज देता है ताकि अगले डीपफे़क में गलतियां सुधार करके उसे और बेहतर किया जा सके|दोनों प्रक्रियाओं को मिलाकर जेनरेटिव एडवर्सरियल नेटवर्क बनाते हैं जिसे जीएएन कहा जाता है|

एक बार ऐसे वीडियो जब किसी सोशल मीडिया प्लेटफोर्म पर आ जाते हैं तो उनकी प्रसार गति बहुत तेज हो जाती है|इंटरनेट पर ऐसे करोडो डीप फेक वीडियो मौजूद हैंइस तकनीक की शुरुआत अश्लील कंटेंट बनाने से हुईपोर्नोग्राफी में इस तकनीक का काफी इस्तेमाल होता है. अभिनेता  और अभिनेत्री  का चेहरा बदल के अश्लील कंटेंट पोर्न साइट्स पर पोस्ट किया जाता है |

डीपट्रेस की रिपोर्ट के अनुसार,2019 में ऑनलाइन पाए गए डीपफेक वीडियो में छियानबे प्रतिशत अश्लील कंटेंट था|इसके अलावा इस तकनीक का इस्तेमाल मनोरंजन के लिए भी किया जाता है. इन डीपफे़क वीडियो का मकसद देखनेवालों को ये यकीन दिलाना होता है जो हुआ ही नहीं है | डीपफे़क कंटेंट की पहचान करने के लिए कुछ ख़ास चीज़ो पर ध्यान देना बेहद ज़रूरी है|उनमें सबसे पहले आती है चेहरे की स्थिति | अक्सर डीपफे़क तकनीक चेहरे और आँख की स्थिति  में मात खा जाता हैइसमें पलकों का झपकना भी शामिल है|

 देश में जहाँ डिजीटल साक्षरता बहुत कम है वहां डीप फेक वीडियो समस्या को गंभीर करते है |हालाँकि  ऐसे वीडियो को पकड़ना आसान भी हो सकता है क्योंकि ऐसे वीडियो इंटरनेट पर मौजूद असली वीडियो से ही बनाये जा सकते हैं पर इस काम को करने के लिए जिस धैर्य की जरुरत होती हैवह भारतीयों के पास वहाट्स एप मेसेज को फॉरवर्ड करने में नहीं दिखती |ऐसे में जब फेक न्यूज वीडियो के रूप में मिलेगी तो लोग उसे तुरंत आगे बढ़ने में नहीं हिचकते | ए सी नेल्सन की हालिया इंडिया इंटरनेट रिपोर्ट 2023' शीर्षक वाली रिपोर्ट के आंकड़े चौंकाते हैं ग्रामीण भारत में 425 मिलियन से अधिक इंटरनेट उपयोगकर्ता थेजो शहरी भारत की तुलना में चौआलीस प्रतिशत  अधिक थाजिसमें 295 मिलियन लोग नियमित रूप से इंटरनेट का उपयोग करते थे। रिपोर्ट में यह भी उल्लेख किया गया है कि लगभग आधा ग्रामीण भारत इंटरनेट तीस प्रतिशत  की मजबूत वृद्धि के साथइंटरनेट पर है और जिसके  भविष्य में और बढ़ने की सम्भावना हैसामान्यतः: सोशल मीडिया एक तरह के ईको चैंबर का निर्माण करते हैं जिनमें एक जैसी रुचियों और प्रव्रत्तियों वाले लोग आपस में जुड़ते हैं |ऐसे में डीप फेक वीडियो के प्रसार को रोकने के लिए बुनियादी शिक्षा में मीडिया साक्षरता और आलोचनात्मक सोच पाठ्यक्रम को शामिल करने की आवश्यकता है ताकि जागरूकता को बढ़ावा दिया जा सकेजिससे  लोगों को फेक न्यूज  से बचाने में मदद करने के लिए एक सक्रिय दृष्टिकोण का निर्माण किया जा सके। डीपफेक और फेक न्यूज  से सतर्क रहने के लिए हमें आज और आने वाले कल के जटिल डिजिटल परिदृश्य वाले भविष्य  के लिएसभी उम्र के लोगों को तैयार करने में पूरे भारत में एक बहु-आयामीक्रॉस-सेक्टर दृष्टिकोण की आवश्यकता है।

 अमर उजाला में 10/11/2023 को प्रकाशित 

पसंद आया हो तो