scorecardresearch
Monday, 6 May, 2024
होमदेशविश्वास नहीं होता Deepfake is Real: 99% महिलाओं को बना रहा है शिकार

विश्वास नहीं होता Deepfake is Real: 99% महिलाओं को बना रहा है शिकार

डीपफेक वीडियो के निगेटिव और पॉजिटिव दोनों ही रूप हैं. यह वायरस और एंटीवायरस सॉफ़्टवेयर की तरह है. इससे सुरक्षा संभव है, लेकिन बार-बार, कुछ न कुछ ऐसा होगा जिससे सजगता से ही निपटा जा सकता है.

Text Size:

नई दिल्ली: काले रंग की जिम ड्रेस पहने लिफ्ट में एंट्री करती एक्ट्रेस रश्मिका मंदाना का एक वीडियो वायरल है. वो वीडियो देख खुद मंदाना भी सकते में आ गईं कि उन्होंने ऐसी वीडियो कब कहां और कैसे बनवाई? ये वीडियो बहुत तेजी से वायरल होने लगा तो रश्मिका निराश हो गईं. वो हैरान परेशान हुईं और फिर उन्होंने लंबा चौड़ा इंस्टाग्राम पोस्ट ही लिख दिया. उन्होंने लिखा “ये डरावना है”. उन्होंने अपनी पोस्ट में लिखा ईमानदारी से कहूं तो यह सिर्फ मेरे लिए ही नहीं बल्कि हममें से हर किसी के लिए बहुत ज्यादा डरावना है.

ये है डीपफेक वीडियो.

जिसमें आप होते तो हैं लेकिन आप होते नहीं हैं. हालांकि, अब सबको पता चल चुका है कि यह एक ‘डीपफेक’ था. इसमें जो लड़की दिख रही है वह रश्मिका नहीं बल्कि ज़ारा पटेल है. ज़ारा ब्रिटिश इंडियन इंस्टाग्राम इन्फ्लूएंसर हैं. और ये वीडियो आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बनाया गया है.

विशेषज्ञों का मानना है कि आने वाले समय में डीपफेक का दुरुपयोग और बढ़ सकता है क्योंकि टेक्नोलॉजी और भी अधिक सोफिस्टिकेटेड और सुलभ होती जा रही है. इससे व्यक्तिगत छवि को नुकसान पहुंचना, गलत सूचना फैलना और मानसिक तनाव बढ़ना जैसे नकारात्मक परिणाम देखने को मिल रहे हैं.

एस्सेल कॉर्पोरेट एलएलपी में ग्रुप चीफ टेक्नेलॉजी इनोवेशन ऑफिसर डॉ. आई.एम लोया बताते हैं, “डीपफेक एक शक्तिशाली तकनीक है. समय के साथ जैसे-जैसे टेक्नोलॉजी में सुधार होता जाएगा, उसकी गुणवत्ता तो बढ़ेगी लेकिन हमारे सामने अवसर के साथ साथ गहन चुनौतियां भी आती रहेंगी.”

अच्छी पत्रकारिता मायने रखती है, संकटकाल में तो और भी अधिक

दिप्रिंट आपके लिए ले कर आता है कहानियां जो आपको पढ़नी चाहिए, वो भी वहां से जहां वे हो रही हैं

हम इसे तभी जारी रख सकते हैं अगर आप हमारी रिपोर्टिंग, लेखन और तस्वीरों के लिए हमारा सहयोग करें.

अभी सब्सक्राइब करें

हालांकि, डीपफेक का इस्तेमाल सकारात्मक ढंग से भी हो सकता है, जैसे कि फिल्मों में विशेष प्रभाव या शिक्षा में जीवंत अनुभव के लिए. लेकिन इसके नकारात्मक प्रभावों से बचाव के लिए कठोर कानूनी उपाय, तकनीकी समाधान और सामाजिक जागरूकता की बहुत जरूरत है.

रश्मिका ने अपने वायरल वीडियो को शेयर करते हुए कई सवाल खड़े किए हैं. उन्होंने कहा कि एक सेलिब्रिटी होने के नाते उन्होंने इससे किसी तरह डील कर लिया. “लेकिन अगर यही चीज़ उनके साथ स्कूल या फिर कॉलेज के समय होती तो वो क्या करती.”

अब यही सवाल सबके मन में उठ रहा है कि यदि आम आदमी खासकर एक लड़की होने की वजह से कोई हमारी किसी तरह कि AI डीपफेक वीडियो बनाकर वायरल करता है तो क्या होगा?

ऐसा कुछ होता है तो हम इससे कैसे निपट या फिर बच सकते हैं.

अपनी तस्वीर और आवाज़ के गलत इस्तेमाल के बारे में अमिताभ बच्चन से लेकर सचिन तेंदुलकर तक समय समय पर आवाज़ उठाते रहे हैं.

अमेरिका स्थित होम सिक्योरिटीज हीरोज़ की डीपफेक रिपोर्टों के अनुसार ऑनलाइन 98% डीपफेक वीडियो एडल्ट कंटेंट से भरें हुए हैं, जिसमें 99% डीपफेक पोर्नोग्राफी के महिला से जुड़े विषय शामिल हैं.

डीपफेक वीडियो के निगेटिव और पॉजिटिव दोनों ही रूप हैं. लेकिन निगेटिव कितना भयावह हो सकता है इसपर संयुक्त राज्य रक्षा विभाग और व्हाइट हाउस के इंटेलिजेंस एजेंसियों के निदेशक दीलीप म्हस्के ने दिप्रिंट को बताया, “इसका उपयोग अक्सर धोखाधड़ी, मनोरंजन, या गलत सूचना फैलाने के लिए किया जाता है.”

म्हस्के ने बताया, “डीपफेक वीडियो के पीछे के मकसद को समझना जरूरी है क्योंकि वे व्यक्तिगत प्रतिष्ठा, राजनीतिक स्थिति, और समाज के भरोसे पर गहरा असर डाल सकते हैं. इसलिए, इस प्रकार की सामग्री के साथ सावधानी और जिम्मेदारी से पेश आना महत्वपूर्ण है.”

रिपोर्ट के अनुसार भारत उन देशों में छठे स्थान पर है जो डीपफेक अडल्ट कंटेंट के मामले में सबसे अधिक संवेदनशील हैं.

क्या है डीपफेक

डीपफेक वीडियो आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग की एक तकनीक है, जिसे विशेष रूप से “जेनेरेटिव एडवर्सेरियल नेटवर्क्स” (GANs) कहा जाता है, जिसका उपयोग करके ऐसे वीडियो बनाए जाते हैं जिसमें किसी व्यक्ति के चेहरे या आवाज को बदला जा सकता है या इस प्रकार से संपादित किया जा सकता है कि वह बिल्कुल असली लगता है. इसका उपयोग अक्सर धोखाधड़ी, मनोरंजन या गलत सूचना फैलाने के लिए किया जाता है.”

रश्मिका ने अपने संदेश में लिखा है, “आज, एक महिला और एक अभिनेत्री के रूप में, मैं अपने परिवार, दोस्तों और शुभचिंतकों की आभारी हूं जो मेरी सुरक्षा और सहायता कर रहे हैं. लेकिन अगर मेरे साथ ये सब स्कूल या कॉलेज में हुआ होता, तो मैं शायद ऐसा कुछ नहीं कर पाती. सोचिए मैं इससे कैसे निपटती.”

Rahmika Mandanna की इस चिंता पर डॉ. लोया ने दिप्रिंट से कहा, यह एक एआई (आर्टिफिशियल इंटेलीजेंस) से संचालित टेक्नोलॉजी है जो किसी भी वीडियो को इतना रीयल बना सकती है, जिससे यह पहचानना बहुत मुश्किल हो जाता है कि ये असली  है या नहीं.

वह आगे कहते हैं कि, “इसमें कोई दो राय नहीं कि इसका दुरुपयोग किया जाएगा या किया जा रहा है, और आज जो हम इसपर ये बातें कर रहे हैं वह भी एक दुर्भाग्यपूर्ण दुरुपयोग से जुड़ा है.”

रश्मिका मंदाना का वीडियो के वायरल होने के अगले ही, कैटरीना कैफ की आगामी फिल्म ‘टाइगर 3’ से उनके एक टॉवल लुक का डीपफेक बनाया गया है.


यह भी पढ़ें: ‘आरोपों में 1% की भी सच्चाई नहीं’, रेव पार्टियों में सांप का जहर सप्लाई कराने के आरोप पर बोले एल्विश यादव


असली नकली

रश्मिका का वीडियो तेजी से वायरल हो गया और कई सोशल मीडिया उपयोगकर्ता इस बात की पुष्टि करने के लिए आगे आए कि यह एक डीपफेक है.

वीडियो वायरल होने के बाद अभिनेता अमिताभ बच्चन ने इसके लिए कानूनी कार्रवाई की मांग की है. उन्होंने एक्स पर लिखा, “हां, यह एक गंभीर मामला है और इसपर कानूनीरूप से कार्रवाई किए जाने की जरूरत है.”

एआई-जनरेटेड वीडियो जो अलग-अलग सेलिब्रिटी चेहरों का डीपफेक बनाकर उनका गलत इस्तेमाल किया जा रहा है,  रश्मिका मंदाना ऐसी पहली सेलिब्रिटी नहीं है जिनके साथ ऐसा हुआ है. स्कारलेट जोहानसन से लेकर मॉर्गन फ्रीमैन और टॉम हैंक्स जैसे हॉलीवुड सितारों तक, डीपफेक वीडियो का शिकार बन चुके हैं.

बता दें कि हाल ही में हॉलीवुड आइकन टॉम हैंक्स की जानकारी के बिना इंस्टाग्राम पर एक डेंटल स्क्रीम का प्रचार किया जा रहा था, जिसके बाद उन्होंने एआई-जनरेटेड इस डीपफेक पर चेतावनी जारी की थी.

डॉ. लोया कहते हैं, “डीपफेक टेक्नोलॉजी इस सोसाइटी में आ चुकी है, और यह अब यहीं रहेगी, समय के साथ इसमें बदलाव और सुधार जारी रहेगा.”

हालांकि एआई के पॉजिटिव आस्पेक्ट्स पर भी नजर डाले जाने की जरूरत है. हमें अब यह सीखने की ज़रूरत है कि इस टेक्नोलॉजी के साथ कैसे जिया जाए. इससे होने वाले फायदों पर ज्यादा से ज्यादा ध्यान दिया जाए और उसका फायदा उठाया जाए और इससे होने वाले नुकसानों को कम किया जाए.

वायरस और एंटीवायरस

डीपफेक वीडियो की पहचान करने के कुछ तरीके बताते हुए म्हस्के ने कहा कि चेहरे की विसंगतियों पर ध्यान दें क्योंकि डीपफेक वीडियो में अक्सर चेहरे की अभिव्यक्तियों में असंगति या अजीब तरह के बदलाव देखने को मिलते हैं. आंखों के ब्लिंक करने का पैटर्न भी अक्सर असामान्य हो सकता है.

उन्होंने बताया, “हमेशा जानकारी के स्रोत को संदेह से देखें, खासकर अगर वीडियो असामान्य या अप्रत्याशित लगे. अगर आपको कोई वीडियो संदिग्ध लगता है, तो उसे शेयर करने से पहले या उस पर विश्वास करने से पहले अच्छी तरह से जांच-परख लें. हमेशा वीडियो के स्रोतों की जांच करनी चाहिए.”

जबकि लोया इसे अलग तरह से देखते हैं. वह कहते हैं जब कोई व्यक्ति जो किसी वीडियो को देखता है उस पर भरोसा नहीं कर पाता, तो यह एक बहुत बड़ी समस्या बन जाती है. यह समस्या मानवता के लिए नई है; इससे पहले हमें कभी भी इस हद तक इस तरह की समस्या नहीं हुई है.

दर्शकों के लिए चुनौती यह है कि क्या असली है और क्या नकली, इसके बीच अंतर कैसे करें. इसका समाधान सिर्फ ये है कि किसी विश्वसनीय स्रोत पर ही विश्वास करें. यहां पर विश्वसनीय पब्लिशर अहम भूमिका निभा सकते हैं. दूसरी ओर, पब्लिशर्स के सामने अलग चुनौती है यह सुनिश्चित करने की कि उन्हें जो भी सामग्री मिली है वह टेंपर प्रूफ है.

यदि दर्शक एक विश्वसनीय स्रोत की तलाश कर रहे हैं, और एक पब्लिशर एक बार भी इस विश्वास को खोता है तो उसकी विश्वसनीयता और पूरा व्यवसाय खतरे में है. डीपफेक का पता लगाने वाले उपकरण होंगे, लेकिन यह पता लगाने और निर्माण के बीच एक तकनीकी दौड़ है. यह वायरस और एंटीवायरस सॉफ़्टवेयर की तरह है; अधिकांश समय, यह सुरक्षा करने में सक्षम होता है, लेकिन बार-बार, कुछ न कुछ ऐसा होता है जिससे पार पाया जा सकता है. इससे मदद मिलती है, लेकिन केवल कुछ हद तक. प्रकाशकों को एक फेल न होने वाली पद्धति सुनिश्चित करने की जरूरत है.इसके लिए तकनीकी तौर पर सबसे बेहतर समाधान “ब्लॉकचेन टेक्नोलॉजी” है, जो इंटेलेक्चुअल प्रॉपराइटरी राइट्स (IPR) प्रोटेक्शन पर आधारित है.भारत में IDPL इसके लिए https://mai.io/ से MyIPR की तकनीक का उपयोग करके एक समाधान भी विकसित कर रहा है.

डीपफेक का इस्तेमाल सिर्फ आपके चेहरे का इस्तेमाल करके आपका फेक वीडियो बनाने तक ही सीमित नहीं है, आपकी आवाज़ का इस्तेमाल करके जब कोई अन्य व्यक्ति बिना आपकी जानकारी के इसके इस्तेमाल करता है तो यह भी Deepfake का ही मामला बन जाता है, जो कि एक क्राइम है.

किफायती भी फायदेमंद भी

हालांकि, डीपफेक का इस्तेमाल सकारात्मक ढंग से भी हो सकता है, जैसे कि फिल्मों में विशेष प्रभाव या शिक्षा में जीवंत अनुभव के लिए. लेकिन इसके नकारात्मक प्रभावों से बचाव के लिए कानूनी उपाय, तकनीकी समाधान और सामाजिक जागरूकता की बहुत आवश्यकता है. इसका उपयोग फिल्म निर्माण, स्वास्थ्य देखभाल, शिक्षा, सार्वजनिक सुरक्षा, समाचार प्रकाशन और अन्य डोमेन में किया जा सकता है.

एक ऐसी परिस्थिति की कल्पना कीजिए जहां एक लोकप्रिय मुख्य अभिनेता की मृत्यु हो जाती है, और एक फिल्म को पूरा करने की जरूरत है. ऐसे समय में ये तकनीक रामबाण साबित होगी. और किफायती भी. जॉन एफ कैनेडी शीत युद्ध को समाप्त करने का प्रस्ताव देने जा रहे थे उससे कुछ ही क्षण पहले उनकी गोली मारकर हत्या कर दी गई थी. अब एआई के प्रभाव की कल्पना करें जो उसे प्रिंट की तुलना में अधिक आकर्षक तरीके से उन्हें हमारे आपके बीच जीवन में वापस ला सकता है. कल्पना कीजिए कि आइंस्टीन और न्यूटन हमारे ग्रामीण छात्रों को उनकी स्थानीय भाषा में सापेक्षता का सिद्धांत और गुरुत्वाकर्षण के नियम पढ़ा रहे हैं. इस नई तकनीक के ऐसे ही कई फायदे हैं.

निःसंदेह, इसके दुरुपयोग की संभावना अधिक है, और आज चर्चा जिसपर की जा रही है यह ऐसा ही एक दुर्भाग्यपूर्ण दुरुपयोग का मामला है.

रश्मिका के वायरल वीडियो ने भारत के इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चन्द्रशेखर का भी ध्यान  अपनी ओर खींचा. उन्होंने एक्स पर पोस्ट किया, “प्रधानमंत्री नरेंद्र मोदी जी की सरकार इंटरनेट का उपयोग करने वाले सभी डिजिटलनागरिकों की सुरक्षा और विश्वास सुनिश्चित करने के लिए प्रतिबद्ध है. अप्रैल, 2023 में अधिसूचित आईटी नियमों के तहत – यह सुनिश्चित करना प्लेटफ़ॉर्म के लिए एक कानूनी दायित्व है कि किसी भी उपयोगकर्ता द्वारा कोई गलत सूचना पोस्ट न की जाए और यह सुनिश्चित किया जाए कि किसी भी उपयोगकर्ता या सरकार द्वारा रिपोर्ट किए जाने पर, गलत सूचना को 36 घंटों में हटा दिया जाए.”

डीपफेक वीडियो के पीछे कौन

डीपफेक वीडियो कई लोग और संगठन विभिन्न कारणों से बना रहे हैं. कई बार डीपफेक तकनीक का उपयोग फिल्मों, विज्ञापनों, और मीम्स में कलाकारों के चेहरे बदलने या मजेदार वीडियो बनाने के लिए मनोरंजन के उद्देश्य से किया जाता है. लेकिन कई बार कुछ लोग दूसरों को बदनाम करने या उन पर निजी हमला करने के लिए ‘Deepfake video’ बनाते हैं.

म्हस्के कहते हैं, “राजनीतिक समूह अक्सर डीपफेक वीडियो का उपयोग विरोधियों को बदनाम करने, झूठी जानकारी फैलाने, या सार्वजनिक राय को प्रभावित करने के लिए करते हैं.

उन्होंने कहा कि कुछ लोग या संगठन फिशिंग या स्कैम के जरिए पैसा कमाने के लिए डीपफेक का उपयोग कर सकते हैं.


यह भी पढ़ें: ‘वस्त्रहरण, अनैतिक व्यवहार’, किए निजी प्रश्न तो गुस्सा हुईं महुआ मोइत्रा- लोकसभा स्पीकर को लिखा ओपन लेटर


नाम, फोटो और आवाज़ का गलत इस्तेमाल

इससे पहले पूर्व क्रिकेटर सचिन तेंदुलकर ने लोगों को ठगने के लिए इंटरनेट पर ‘फर्जी विज्ञापनों’ में उनके नाम, फोटो और आवाज का इस्तेमाल किए जाने को लेकर मुंबई क्राइम ब्रांच में पुलिस में शिकायत दर्ज कराई थी.

मुंबई पुलिस साइबर सेल द्वारा अज्ञात लोगों के खिलाफ आईपीसी की धारा 426, 465 और 500 के तहत मामला दर्ज किया गया था. सचिन तेंदुलकर के शिकायत के बाद SRTSM प्रबंधन टीम ने एक बयान जारी कर कहा, हमने देखा है कि सचिन तेंदुलकर की विशेषताओं, जैसे उनकी आवाज़ और फोटो को बिना उनकी इजाजत के इस्तेमाल करके विभन्न तरीके के सामानों को बेचा जाता है और लोगो को ठगा जा रहा हैं.

नवंबर में बॉलीवुड के दिग्गज अभिनेता अमिताभ बच्चन ने उनकी इजाज़त के बिना उनके आवाज़ फोटो और उनकी किसी भी विशेषता का उपयोग करने के खिलाफ दिल्ली हाई कोर्ट में एक शिकायत दर्ज कराई थी.

एक्ट्रेस मृणाल ठाकुर ने वायरल डीपफेक वीडियो के खिलाफ बोलने के लिए रश्मिका मंदाना की सराहना की है और दूसरों को भी ऐसी स्थितियों के खिलाफ आवाज़ उठाने के लिए प्रोत्साहित किया है.

‘कुमकुम भाग्य’ की अभिनेत्री ने लोगों को इस चर्चा में शामिल होने के लिए प्रोत्साहित करते हुए कहा, “ऐसी चीजों का सहारा लेने वाले लोगों को शर्म आनी चाहिए, इससे पता चलता है कि ऐसे लोगों में कोई विवेक नहीं बचा है.”

उन्होंने आगे कहा कि हर दिन इंटरनेट पर महिला कलाकारों के वीडियो आते हैं, जिनमें उनके शरीर के अनुचित अंगों को ज़ूम किया जाता है. हम एक समुदाय और एक समाज के रूप में कहां जा रहे हैं? हम ‘लाइमलाइट’ में अभिनेत्री हो सकते हैं, लेकिन अंत में, हम में से हर कोई इंसान है. हम इसके बारे में बात क्यों नहीं कर रहे हैं? अब ये चुप रहने का समय नहीं है.

जागरूकता और बचाव

इंटरनेट पर एक बार कोई भी जानकारी पोस्ट करने के बाद वह हमेशा के लिए वहां रह सकती है, इसलिए हम जो भी शेयर करें, उसे सोच-समझकर करना चाहिए. ‘एआई फॉर सोशियल जस्टिस’ की स्थापना कर चुके दीलीप म्हस्के कहते हैं, “सरकारों, शिक्षा संस्थानों, और नागरिक समूहों द्वारा जागरूकता अभियान चलाना चाहिए जो लोगों को इस बारे में सचेत करें कि उनकी डिजिटल पहचान को कैसे सुरक्षित रखा जाए.”

उन्होंने कहा कि सरकारी नियम और नियामक संस्थाएं ऐसे कानूनी ढांचे बना सकती हैं जो डिजिटल सामग्री के गलत इस्तेमाल के खिलाफ कड़ी कार्रवाई करते हो. साथ ही इस विषय पर खुली चर्चा और डिबेट का आयोजन करना चाहिए जहां विशेषज्ञ और प्रभावित व्यक्ति अपने अनुभव साझा कर सकें.

म्हस्के ने बताया, “सोशल मीडिया प्लेटफॉर्म्स को ऐसी गाइडलाइन्स बनानी चाहिए जो उपयोगकर्ताओं को उनकी सुरक्षा के बारे में बताएं और कि कैसे उनकी आवाज और तस्वीरों का मिसयूज हो सकता है. ऐसे टेक्नोलॉजिकल टूल्स और सॉफ्टवेयर प्रदान करने चाहिए जो लोगों को यह पहचानने में मदद कर सकें कि क्या कोई वीडियो या इमेज डीपफेक है.

(संपादन: पूजा मेहरोत्रा)


यह भी पढ़ें: ‘सफेद बाल, टूटे दांत और झुर्रियां’, इंस्टा से लेकर मैगज़ीन के कवर तक राज, उम्र को पछाड़ बने स्टार


 

share & View comments