scorecardresearch
बुधवार, 7 मई, 2025
होमविदेशचैट जीटीपी पर आंख मूंदकर भरोसा न करें, अक्सर गलतियां कर बैठती हैं ऐसी कृत्रिम मेधाएं

चैट जीटीपी पर आंख मूंदकर भरोसा न करें, अक्सर गलतियां कर बैठती हैं ऐसी कृत्रिम मेधाएं

Text Size:

(मयंक केजरीवाल, रिसर्च असिस्टेंट प्रोफेसर ऑफ इंडस्ट्रियल एंड सिस्टम्स इंजीनियरिंग, यूनिवर्सिटी ऑफ सदर्न कैलिफॉर्निया)

लॉस एंजिलिस, आठ अप्रैल (द कन्वरसेशन) पिछले कुछ वर्षों में भाषा संबंधी बड़ी कृत्रिम मेधा (आर्टिफिशल इंटेजिलेंस) प्रणालियों के मामले में तेज प्रगति देखी गई है जो कविता लिखने, मानवीय वार्तालाप करने और मेडिकल स्कूल परीक्षा उत्तीर्ण कराने जैसे कामों में मददगार साबित होती हैं।

इसी प्रगति की देन हैं ‘चैट-जीपीटी’ जैसे मॉडल। हालांकि ऐसे मॉडल के कई प्रमुख सामाजिक आर्थिक प्रभाव हो सकते हैं, जिनमें नौकरियां खत्म होना और उत्पादकता बढ़ाने के चक्कर में गलत सूचनाओं का व्यापक प्रसार शामिल है।

ऐसे बड़े भाषाई मॉडल में प्रभावशाली क्षमताएं तो होती हैं, लेकिन इनकी तार्किक शक्ति कमजोर होती है। ये ऐसी-ऐसी गलतियां कर जाते हैं, जिनकी उम्मीद नहीं की जाती। कभी-कभी ये मॉडल चीजों को आसान बनाने के बजाय मुश्किल बना देते हैं।

लिहाजा अध्ययनकर्ताओं ने ऐसे मॉडल के गुण-दोष की पड़ताल करने का फैसला किया।

इस अध्ययन में भी वही तरीका अपनाया गया जो ‘सर्च इंजन’ गूगल के बीईआरटी मॉडल की पड़ताल के समय अपनाया गया था। बीईआरटी शुरुआती बड़े भाषा संबंधी एआई मॉडल में शुमार है। इसे ‘बर्टोलॉजी’ भी कहा जाता है। बीईआरटी पर किए गए अध्ययन में पहले ही बहुत कुछ पता चल चुका है कि ऐसे मॉडल क्या कर सकते हैं और कहां गलती करते हैं।

उदाहरण के लिए कई भाषा मॉडल भाव को नहीं समझ पाते हैं और वे केवल नतीजे प्रदान करते हैं। इन्हें सही और गलत की समझ नहीं होती। इन्हें सकारात्मक और नकारात्मक के बीच अंतर पता नहीं होता। साथ ही कभी-कभी ये साधारण सी गणना भी नहीं कर पाते। ये गलत उत्तर भी पूरे आश्वस्त होकर देते हैं।

‘बर्टोलॉजी’ और संज्ञानात्मक विज्ञान जैसे संबंधित क्षेत्रों में बढ़ते अनुसंधान से प्रेरित होकर, मेरे छात्र झिशेंग तांग और मैंने बड़े भाषा मॉडल के बारे में यह जानने की कोशिश की क्या उनमें तार्किक शक्ति होती है?

भाषा संबंधी मॉडल तार्किक शक्ति रखते हैं? उनसे जो पूछा जाता है, क्या वे उन्हें समझते हैं? हमने कई प्रयोग कर यह पाया कि बीईआरटी जैसे मॉडल अपने मूल रूप में अनेक विकल्प प्रस्तुत किए जाने पर बेतरतीब ढंग से व्यवहार करते हैं।

हमने बीईआरटी मॉडल पर एक सवाल पूछा और उसके दो विकल्प दिए। सवाल था: आप एक सिक्का उछालते हैं और यदि चित आता है, तो आप एक हीरा जीत जाएंगे; यदि पट आता है, तो आप एक कार खो देगें। दोनों में से किसमें फायदा है? ऐसे में बीईआरटी को पहला विकल्प चुनना था, लेकिन वह बार बार दूसरा विकल्प चुनता रहा। इससे पता चला कि उसे नफा-नुकसान के बारे में नहीं पता है। साथ ही यह भी मालूम हुआ कि ये मॉडल सीमित दायरे में सोचकर ही किसी सवाल का जवाब दे पाते हैं।

इसके अलावा भी हमने कई और प्रयोग किए, जिनके आधार पर यह कहा जा सकता है कि ऐसे मॉडल पर आंख मूंद कर विश्वास नहीं किया जा सकता और इन पर मिले परिणाम बिल्कुल सही नहीं हो सकते, लिहाजा इनमें अब भी काफी सुधार की गुंजाइश है।

(द कन्वरसेशन) जोहेब देवेंद्र

देवेंद्र

यह खबर ‘भाषा’ न्यूज़ एजेंसी से ‘ऑटो-फीड’ द्वारा ली गई है. इसके कंटेंट के लिए दिप्रिंट जिम्मेदार नहीं है.

share & View comments