scorecardresearch
Friday, 22 November, 2024
होमसमाज-संस्कृतिकैसे डीपफ़ेक टेक्नोलॉजी समाज के लिए ख़तरनाक़ हो सकती है

कैसे डीपफ़ेक टेक्नोलॉजी समाज के लिए ख़तरनाक़ हो सकती है

डीपफ़ेक टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं. इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है.

Text Size:

हम सबने जुड़वा, गोपी-किशन, डुप्लीकेट, सीता-गीता और दशावतरम जैसी फिल्में देखी हैं, जिसमें हीरो या हीरोइन के एक से लेकर 10 हमशक्ल होते थे. जहां इन फिल्मों को शूट करने में हीरो को ही कई बार शूटिंग करनी होती थी या डबल बॉडी का इस्तेमाल होता था, लेकिन अब हम ऐसे डिजिटल युग में हैं. जहां हमशक्ल निकालना शायद चंद मिनटों का खेल हो. लेकिन इस तकनीक का इस्तेमाल महिलाओं और राजनैतिक नेताओं के खिलाफ उनके अश्लील फोटो/वीडियो बनाने में हो रहा है, जो ब्लैक मिरर के किसी एपिसोड सा प्रतीत होता है. यह सच है और यह चिंताजनक है. आइए, समझते हैं की ये सब कैसे हो रहा है, डीपफ़ेक टेक्नोलॉजी क्या है और डीपफ़ेक टेक्नोलॉजी से यह कैसे संभव हुआ?

क्या है डीपफ़ेक टेक्नोलॉजी?

डीपफ़ेक ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है. जैसे हम किसी भी चीज़ की फोटो-कॉपी कर लेते हैं, वैसे ही ये टेक्नोलॉजी चलते-फिरते और बोलते लोगों की हूबहू कॉपी कर सकती है. मतलब हम स्क्रीन पर एक किसी भी इंसान, जीव को चलते-फिरते, बोलते देख सकते हैं, जो नकली हो या जिसकी कॉपी बनाई गयी हो. इस टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं. इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है और वो भी इतनी सफ़ाई और बारीकी से कि स्रोत चेहरे के सभी हाव-भाव तक फ़र्ज़ी चेहरे पर दिख सकते हैं.

डीपफ़ेक टेक्नोलॉजी को ऐसे वर्गीकृत किया जा सकता है:

1. फेस-स्वैप: जिसमें वीडियो में चेहरा स्वचालित रूप से किसी अन्य व्यक्ति के चेहरे से बदल दिया जाता है.
2. लिप-सिंक: जिसमें एक स्रोत वीडियो को संशोधित किया जाता है, ताकि जो बोल रहा है उसका मुंह और होंठ एक मनमानी ऑडियो रिकॉर्डिंग के अनुरूप हो सके.
3. कठपुतली-मास्टर : जिसमें एक कलाकार द्वारा एक लक्षित व्यक्ति को एक कैमरे के सामने बैठाकर मिमिक (सिर और आंखो का चलना, चेहरे के हाव भाव) किया जाता है.

डीपफ़ेक किस हद तक खतरनाक

दो साल पुरानी इस टेक्नोलॉजी का शिकार काफी मशहूर अदाकारा हो चुकी हैं. इन नामों की गिनती ख़त्म नहीं होती. एंजलीना जोली, गेम ऑफ़ थ्रोंस में मार्जरी का किरदार निभाने वाली नेटली डोर्मर, वंडर वुमन वाली गाल गदोट, हैरी पॉटर वाली एमा वॉटसन, नेटली पोर्टमन और भारत में ऐश्वर्या, कटरीना, प्रियंका चोपड़ा और तमाम अदाकाराओं के इस तरह के नकली वीडियो फैलाने की कोशिश की गई है.


यह भी पढ़ें : गूगल ने अंतरिक्ष में पहले मानव संदेश पहुंचने की याद में बनाया डूडल


किसी व्यक्ति की बात करने की शैली और चेहरे के हाव-भाव उस संदर्भ के साथ भिन्न हो सकता है, जिसमें व्यक्ति बातें कर रहा है. उदाहरण के लिए, भाषण देते समय चेहरे के हाव-भाव, एक लाइव साक्षात्कार के दौरान तनावपूर्ण प्रश्न का उत्तर देने की तुलना में काफी भिन्न हो सकते हैं. डीपफ़ेक का व्यापक अस्तित्व ऐसा है, जो लोगों को यह विश्वास दिला सकता है कि वो वैध वीडियो को भी खारिज कर सकते है. मतलब इतनी वास्तविकता की वास्तविक वीडियो ही फ़ेक लगने लगे.

हमने अब सामूहिक रूप से स्वीकार कर लिया कि फ़ोटो सम्पादित या यूं कहें की फोटोशॉप हो सकते हैं, जो अब अक्सर संपादित होते भी हैं और बाकि फोटो को भी संदेह की नज़र से देखा जाता है. अब पूरे-पूरे सबरेडिट्स और इंस्टाग्राम अकाउंट मौजूद हैं जहां लोग खराब फोटोशॉप के बारे में पोस्ट करते हैं, विश्लेषण करते हैं और उसका मज़ाक उड़ाते हैं.

हालांकि, वास्तविक फुटेज से डीपफेक को समझ पाना अभी भी काफी आसान है, लेकिन कुछ छलरचित वीडियो इतनी सफाई से सम्पादित होते हैं की अंतर करना मुश्किल होता है. हाल की वैश्विक चुनावी गतिविधियों ने राजनीतिक संस्थाओं की अभूतपूर्व शक्ति और पूर्वाग्रहों का प्रदर्शन किया है, जो फ़ेक न्यूज़ के साथ व्यक्तियों को माइक्रोट्रैगेट करते हैं, और इसलिए राजनीतिक विरोधियों को परास्त करने के लिए डीपफ़ेक का उपयोग करना घातक हो सकता है.

डीपफ़ेक और इसका भविष्य

आर्टिफीशियल इंटेलिजेंस की नई खोज 30 सेकंड में औरत को नग्न करने वाली एप्प है. जिसमें बस आप महिला की फोटो डालिए और वो एप्प उस महिला की फोटो कॉपी कर,इन्टरनेट पर लगभग अनुकूल शरीर खोज करके जोड़ देता है और वो भी फोटोशॉप जैसे सॉफ्टवेयर से एडिट करे बगैर.

इस डीपन्यूड नामक एप्प को बंद कर दिया गया है, ताकि महिलाओं के खिलाफ अपराध को बढ़ावा न मिले मगर उस मानसिकता का क्या, जो आर्टिफीशियल इंटेलिजेंस जैसी टेक्नोलॉजिकल क्रांति का उपयोग लड़कियों को नग्न करने में लगा रही है, जो इतनी भयावह स्थिति उत्पन्न कर रही है.

दाईं ओर अमेरीकी  सीनेटर एलिज़ाबेथ वारेन की हमशक्ल केट मैक्कीनॉन हैं, जिन्होंने वारेन की नकल और डीप फेक की मदद से हूबहू वारेन के जैसी वीडियो बनाई.

यह भी पढ़ें : डीएनए प्रौद्योगिकी विधेयक : अब अज्ञात की पहचान होगी आसान


बढ़ती और बेहतर होती टेक्नोलॉजी, जहां एक ओर औरतों की सार्वजनिक सुरक्षा में एक बड़ी भूमिका निभा सकती है और काफी हद तक निभा भी रही है, वहीं दूसरी ओर यही टेक्नोलॉजी उन्हें उतना ही कमज़ोर भी बना रही है, जितना वो इस टेक्नोलॉजी-युग के पहले थीं. जैसा हमने डीपफ़ेक वीडियो और डीप-न्यूड एप्प से जाना. परिणाम स्वरूप छवियां स्पष्ट रूप से छल. रचित होती हैं, लेकिन जब आप उन्हें करीब से देखते हैं तो पाएंगे कि त्वचा धुंधली और बदरंग है. लेकिन वो देखने वाले को आश्वस्त कर देती हैं, जितना ज़रूरी होता है.

जैसा कि हमने फ़ेक न्यूज़ के साथ देखा है की फ़ेक न्यूज़ को पकड़ा जा सकता है इसका मतलब यह नहीं है कि इसे क्लिक नहीं किया जाएगा और ऑनलाइन पढ़ा और साझा नहीं किया जा सकता है. क्योंकि वो चीज़ें जो इंटरनेट को चलाती हैं, वो हैं बिना किसी रुकावट के जानकारी का साझाकरण और लोगों की अटेंशन से पैसा बनाना. इसका मतलब है की डीपफ़ेक के इस्तेमाल के लिए हमेशा एक दर्शक वर्ग मौजूद रहेगा. लेकिन किस तरह इस टेक्नोलॉजी का प्रभाव रोका जा सकता है, यह निश्चित ही एक बड़ा प्रश्न है. और आख़िर, हम कितना ही डीपफ़ेक को रोकने के लिए तकनीकी समाधान खोज लें, चाहे वे कितने भी अच्छे हों, वो डीपफ़ेक विडियो/फोटो को फैलने से नहीं रोक सकते. साथ ही कानूनी उपाय, चाहे वे कितने भी प्रभावी हों, आम तौर पर डीपफ़ेक के फैलने के बाद ही लागू हो सकते हैं.

साथ ही, सार्वजनिक जागरूकता में सुधार, डीपफ़ेक से मुकाबला करने की रणनीति का एक अतिरिक्त पहलू हो सकता है. जैसे जब किसी हाई-प्रोफाइल व्यक्ति का संदिग्ध डीपफेक वीडियो आता है, तो यह चंद दिनों या घंटों के अंदर जानना संभव होगा कि उस वीडियो के साथ छेड़छाड़ किस हद तक हुई है. यह जानकारी डीपफ़ेक को फैलने से रोक तो नहीं सकती है, लेकिन यह निश्चित रूप से उनके प्रभाव को कम करने में मदद कर सकता है.

(सागर विश्नोई पेशे से पोलिटिकल कंसलटेंट और चुनावी विश्लेषक हैं. चुनाव, राजनीति और डिजिटल गवर्नेंस में ख़ास रुचि रखते हैं. विश्नोई गवर्न नामक गवर्नेंस इनोवेशन लैब को हेड कर रहे हैं.यह लेखक का निजी विचार है.)

share & View comments