(नताली शियर्ड अनुसंधानकर्ता और वकील, ला ट्रोब विश्वविद्यालय)
मेलबर्न, 14 दिसंबर (द कन्वरसेशन) क्या कृत्रिम बुद्धिमत्ता (एआई) यह बता सकता है कि आप खुश हैं, दुखी हैं, क्रोधित या निराश हैं? एआई के जरिये मानवीय भावनाओं की पहचान करने संबंधी सॉफ्टवेयर प्रदान करने वाली प्रौद्योगिकी कंपनियों की मानें तो इस प्रश्न का उत्तर ‘हां’ है।
लेकिन इन दावों की वैज्ञानिक प्रमाणों की पृष्ठभूमि में पुष्टि नहीं हो पाती।
इसके अलावा, भावनाओं की पहचान करने संबंधी प्रौद्योगिकी कई प्रकार के कानूनी और सामाजिक जोखिम भी उत्पन्न करती है; विशेष रूप से जब इसे कार्यस्थल पर प्रयोग किया जाता है।
इन कारणों से यूरोपीय संघ द्वारा अगस्त में लागू एआई अधिनियम कार्यस्थल पर किसी व्यक्ति की भावनाओं का अनुमान लगाने के लिए इस्तेमाल की जाने वाली एआई प्रणालियों का इस्तेमाल ‘‘चिकित्सा’’ या ‘सुरक्षा’’ कारणों को छोड़कर प्रतिबंधित करता है।
ऑस्ट्रेलिया में हालांकि, अभी तक इन प्रणालियों को लेकर कोई विशिष्ट कानून या नियम नहीं है। जैसा कि मैंने ऑस्ट्रेलियाई सरकार के साथ नवीनतम चर्चा के दौरान उच्च जोखिम वाली एआई प्रणालियों के बारे में अपनी दलील दी थी कि इनमें (विनियमन में) तत्काल बदलाव की आवश्यकता है।
एक नई और बढ़ती लहर:
एआई-आधारित भावना पहचान प्रणालियों का वैश्विक बाजार बढ़ रहा है। वर्ष 2022 में यह लगभग 34 अरब अमेरिकी डॉलर का था और 2027 तक इसके 62 अरब अमेरिकी डॉलर तक पहुंचने की उम्मीद है।
ये प्रौद्योगिकियां बायोमेट्रिक डेटा से किसी व्यक्ति की भावनात्मक स्थिति के बारे में पूर्वानुमान लगाकर काम करती हैं, जैसे कि उसकी हृदय गति, त्वचा की नमी, आवाज, हाव-भाव या चेहरे के भाव।
अगले वर्ष, ऑस्ट्रेलियाई प्रौद्योगिकी स्टार्टअप इनट्रुथ टेक्नोलॉजिज एक कलाई पर पहने जाने वाले उपकरण लाने की योजना बना रही है। उसका दावा है कि इसे पहनने वाले की हृदय गति और अन्य शारीरिक गतिविधियों के माध्यम से वास्तविक समय में उसकी भावनाओं पर नजर रखी जा सकती है।
इनट्रुथ टेक्नोलॉजिज की संस्थापक निकोल गिब्सन ने कहा है कि इस प्रौद्योगिकी का उपयोग नियोक्ताओं द्वारा टीम के ‘‘प्रदर्शन और ऊर्जा’’ या उनके मानसिक स्वास्थ्य पर नजर रखने के लिए किया जा सकता है, ताकि ‘पोस्ट-ट्रॉमेटिक स्ट्रेस डिसऑर्डर’ जैसी समस्याओं का पूर्वानुमान लगाया जा सके।
उन्होंने यह भी कहा कि इनट्रुथ एक ‘‘एआई भावनात्मक परामर्शदाता हो सकता है जो आपके बारे में सब कुछ जानता है, जिसमें यह भी शामिल है कि आप क्या महसूस कर रहे हैं और क्यों महसूस कर रहे हैं’’।
ऑस्ट्रेलियाई कार्यस्थलों में भावना की पहचान करने वाली प्रौद्योगिकी:
आस्ट्रेलियाई कार्यस्थलों में भावना की पहचान करने वाली प्रौद्योगिकियों के उपयोग के बारे में बहुत कम आंकड़े उपलब्ध हैं।
लेकिन, हम जानते हैं कि कुछ ऑस्ट्रेलियाई कंपनियों ने ‘हायरवुई’ नामक एक अमेरिकी कंपनी द्वारा प्रस्तुत वीडियो साक्षात्कार प्रणाली का उपयोग किया था, जिसमें चेहरे पर आधारित भावना का विश्लेषण शामिल था।
इस प्रणाली में नौकरी के लिए आवेदन करने वालों की उपयुक्तता का आकलन करने के लिए चेहरे की मांसपेशियों में हरकत और भावों का इस्तेमाल किया गया। उदाहरण के लिए, आवेदकों का मूल्यांकन इस आधार पर किया गया कि क्या उन्होंने उत्साह व्यक्त किया या किसी नाराज व्यक्ति के प्रति उनकी प्रतिक्रिया कैसी थी।
अमेरिका में शिकायत मिलने के बाद 2021 में ‘हायरवुई’ ने अपनी प्रणाली से भावना विश्लेषण वाले हिस्से को हटा दिया।
ऑस्ट्रेलियाई नियोक्ताओं द्वारा कृत्रिम बुद्धिमत्ता से संचालित कार्यस्थल निगरानी प्रौद्योगिकियों को अपनाने के कारण भावनाओं की पहचान करने की प्रक्रिया में फिर से वृद्धि हो सकती है।
वैज्ञानिक प्रमाणिकता का अभाव:
इनट्रुथ जैसी कम्पनियां दावा करती हैं कि भावना पहचान प्रणालियां वस्तुनिष्ठ हैं और वैज्ञानिक पद्धतियों पर आधारित हैं।
हालांकि, विद्वानों ने चिंता जताई है कि ये प्रणालियां ‘फ्रेनोलॉजी’ (छद्म विज्ञान जो खोपड़ी के आकार-प्रकार के आधार पर मानसिक स्थिति का विश्लेषण करता है) और फिजियोग्नोमी (चेहरे की बनावट के आधार पर चरित्र का विश्लेषण) हैं। यानी, किसी व्यक्ति की शारीरिक या व्यवहार संबंधी विशेषताओं का उपयोग करके उसकी क्षमताओं और चरित्र का निर्धारण करना।
हालिया साक्ष्यों से पता चलता है कि लोग भावनाओं को कैसे व्यक्त करते हैं, यह संस्कृतियों, संदर्भों और व्यक्तियों के बीच व्यापक रूप से भिन्न होता है।
उदाहरण के लिए, 2019 में, विशेषज्ञों के एक समूह ने निष्कर्ष निकाला कि ‘‘कोई भी वस्तुनिष्ठ तरीका नहीं है, चाहे वह अकेले हो या पैटर्न के रूप में, जो विश्वसनीय रूप से, विशिष्ट रूप से भावनात्मक श्रेणियों की पहचान करता हो।’’ उदाहरण के लिए, जब कोई व्यक्ति क्रोधित होता है तो उसकी त्वचा की नमी बढ़ सकती है, घट सकती है या वैसी ही बनी रह सकती है।
इनट्रुथ टेक्नोलॉजिज की संस्थापक निकोल गिब्सन ने एक बयान में कहा, ‘‘यह सच है कि भावना पहचान प्रौद्योगिकियों को अतीत में महत्वपूर्ण चुनौतियों का सामना करना पड़ा था, लेकिन हाल के वर्षों में परिदृश्य काफी बदल गया है’’।
मौलिक अधिकारों का उल्लंघन:
भावना पहचान करने वाली प्रौद्योगिकियां बिना औचित्य के मौलिक अधिकारों को खतरे में डालती हैं।
उनमें जाति, लिंग और दिव्यांगता के आधार पर भेदभाव पाया गया है।
एक मामले में, भावना पहचान प्रौद्योगिकी ने अश्वेत चेहरों को श्वेत चेहरों की तुलना में अधिक क्रोधित बताया जबकि दोनों एक ही समान मुस्कुरा रहे थे। ये प्रौद्योगिकी प्रशिक्षण आंकड़ों में प्रतिनिधित्व नहीं किए गए जनसांख्यिकीय समूहों के लोगों के लिए भी कम सटीक हो सकती हैं।
गिब्सन ने भावना पहचान प्रौद्योगिकियों में पूर्वाग्रह के बारे में चिंताओं को स्वीकार किया। लेकिन उन्होंने कहा कि ‘‘पूर्वाग्रह प्रौद्योगिकी में ही निहित नहीं है, बल्कि इन प्रणालियों को प्रशिक्षित करने के लिए उपयोग किए जाने वाले आंकड़ों में भी निहित है।’’
उन्होंने कहा कि इनट्रुथ ‘‘विविध, समावेशी डेटा सेट’’ का उपयोग करके ‘‘इन पूर्वाग्रहों को दूर करने के लिए प्रतिबद्ध है।’’
कार्यस्थल पर निगरानी उपकरण के रूप में, भावना पहचान प्रणाली गोपनीयता अधिकारों के लिए गंभीर खतरा पैदा करती है। यदि किसी कर्मचारी की जानकारी के बिना संवेदनशील जानकारी एकत्र की जाती है, तो ऐसे अधिकारों का उल्लंघन हो सकता है।
कर्मचारियों का रुख:
इस साल की शुरुआत में प्रकाशित एक सर्वेक्षण में पाया गया कि केवल 12.9 प्रतिशत ऑस्ट्रेलियाई वयस्क कार्यस्थल पर चेहरा-आधारित भावना पहचान प्रौद्योगिकी का समर्थन करते हैं।
अमेरिका में इस वर्ष प्रकाशित एक अध्ययन में श्रमिकों ने चिंता व्यक्त की थी कि भावना पहचान प्रणालियां उनके स्वास्थ्य को नुकसान पहुंचाएंगी तथा कार्य निष्पादन को प्रभावित करेंगी।
उन्हें डर था कि गलत जानकारी की वजह से उनके बारे में गलत धारणा बन सकती है। बदले में, ये गलत धारणाएं उन्हें पदोन्नति और वेतन वृद्धि से रोक सकती हैं या यहां तक कि बर्खास्तगी का कारण भी बन सकती हैं।
एक प्रतिभागी ने जैसा कि कहा:
मैं यह नहीं समझ पा रहा हूं कि यह कार्यस्थल पर विनाशकारी के अलावा और कुछ कैसे हो सकता है।
(द कन्वरसेशन)
धीरज देवेंद्र सुभाष
सुभाष
यह खबर ‘भाषा’ न्यूज़ एजेंसी से ‘ऑटो-फीड’ द्वारा ली गई है. इसके कंटेंट के लिए दिप्रिंट जिम्मेदार नहीं है.