Chat GPT Wrong: चैट जीटीपी पर आंख मूंदकर भरोसा न करें, आसान सवाल का जवाब देने में भी AI कर रहा गलती – chat gpt wrong do not trust chat gtp blindly ai is making mistakes even in answering simple questions

लॉस एंजिलिस: पिछले कुछ वर्षों में भाषा संबंधी बड़ी कृत्रिम मेधा (आर्टिफिशल इंटेजिलेंस) प्रणालियों के मामले में तेज प्रगति देखी गई है जो कविता लिखने, मानवीय वार्तालाप करने और मेडिकल स्कूल परीक्षा उत्तीर्ण कराने जैसे कामों में मददगार साबित होती हैं। इसी प्रगति की देन हैं ‘चैट-जीपीटी’ जैसे मॉडल। हालांकि ऐसे मॉडल के कई प्रमुख सामाजिक आर्थिक प्रभाव हो सकते हैं, जिनमें नौकरियां खत्म होना और उत्पादकता बढ़ाने के चक्कर में गलत सूचनाओं का व्यापक प्रसार शामिल है। ऐसे बड़े भाषाई मॉडल में प्रभावशाली क्षमताएं तो होती हैं, लेकिन इनकी तार्किक शक्ति कमजोर होती है। ये ऐसी-ऐसी गलतियां कर जाते हैं, जिनकी उम्मीद नहीं की जाती।

कभी-कभी ये मॉडल चीजों को आसान बनाने के बजाय मुश्किल बना देते हैं। लिहाजा अध्ययनकर्ताओं ने ऐसे मॉडल के गुण-दोष की पड़ताल करने का फैसला किया। इस अध्ययन में भी वही तरीका अपनाया गया जो ‘सर्च इंजन’ गूगल के बीईआरटी मॉडल की पड़ताल के समय अपनाया गया था। बीईआरटी शुरुआती बड़े भाषा संबंधी एआई मॉडल में शुमार है। इसे ‘बर्टोलॉजी’ भी कहा जाता है। बीईआरटी पर किए गए अध्ययन में पहले ही बहुत कुछ पता चल चुका है कि ऐसे मॉडल क्या कर सकते हैं और कहां गलती करते हैं। उदाहरण के लिए कई भाषा मॉडल भाव को नहीं समझ पाते हैं और वे केवल नतीजे प्रदान करते हैं। इन्हें सही और गलत की समझ नहीं होती। इन्हें सकारात्मक और नकारात्मक के बीच अंतर पता नहीं होता। साथ ही कभी-कभी ये साधारण सी गणना भी नहीं कर पाते। ये गलत उत्तर भी पूरे आश्वस्त होकर देते हैं।

पूछा गया सवाल

‘बर्टोलॉजी’ और संज्ञानात्मक विज्ञान जैसे संबंधित क्षेत्रों में बढ़ते अनुसंधान से प्रेरित होकर, मेरे छात्र झिशेंग तांग और मैंने बड़े भाषा मॉडल के बारे में यह जानने की कोशिश की क्या उनमें तार्किक शक्ति होती है? भाषा संबंधी मॉडल तार्किक शक्ति रखते हैं? उनसे जो पूछा जाता है, क्या वे उन्हें समझते हैं? हमने कई प्रयोग कर यह पाया कि बीईआरटी जैसे मॉडल अपने मूल रूप में अनेक विकल्प प्रस्तुत किए जाने पर बेतरतीब ढंग से व्यवहार करते हैं। हमने बीईआरटी मॉडल पर एक सवाल पूछा और उसके दो विकल्प दिए। सवाल था: आप एक सिक्का उछालते हैं और यदि चित आता है, तो आप एक हीरा जीत जाएंगे; यदि पट आता है, तो आप एक कार खो देगें। दोनों में से किसमें फायदा है?

क्या मिला जवाब

ऐसे में बीईआरटी को पहला विकल्प चुनना था, लेकिन वह बार बार दूसरा विकल्प चुनता रहा। इससे पता चला कि उसे नफा-नुकसान के बारे में नहीं पता है। साथ ही यह भी मालूम हुआ कि ये मॉडल सीमित दायरे में सोचकर ही किसी सवाल का जवाब दे पाते हैं। इसके अलावा भी हमने कई और प्रयोग किए, जिनके आधार पर यह कहा जा सकता है कि ऐसे मॉडल पर आंख मूंद कर विश्वास नहीं किया जा सकता और इन पर मिले परिणाम बिल्कुल सही नहीं हो सकते, लिहाजा इनमें अब भी काफी सुधार की गुंजाइश है।

(मयंक केजरीवाल, रिसर्च असिस्टेंट प्रोफेसर ऑफ इंडस्ट्रियल एंड सिस्टम्स इंजीनियरिंग, यूनिवर्सिटी ऑफ सदर्न कैलिफॉर्निया)

Sunil Kumar Dhangadamajhi

𝘌𝘥𝘪𝘵𝘰𝘳, 𝘠𝘢𝘥𝘶 𝘕𝘦𝘸𝘴 𝘕𝘢𝘵𝘪𝘰𝘯 ✉yadunewsnation@gmail.com

http://yadunewsnation.in