कभी-कभी ये मॉडल चीजों को आसान बनाने के बजाय मुश्किल बना देते हैं। लिहाजा अध्ययनकर्ताओं ने ऐसे मॉडल के गुण-दोष की पड़ताल करने का फैसला किया। इस अध्ययन में भी वही तरीका अपनाया गया जो ‘सर्च इंजन’ गूगल के बीईआरटी मॉडल की पड़ताल के समय अपनाया गया था। बीईआरटी शुरुआती बड़े भाषा संबंधी एआई मॉडल में शुमार है। इसे ‘बर्टोलॉजी’ भी कहा जाता है। बीईआरटी पर किए गए अध्ययन में पहले ही बहुत कुछ पता चल चुका है कि ऐसे मॉडल क्या कर सकते हैं और कहां गलती करते हैं। उदाहरण के लिए कई भाषा मॉडल भाव को नहीं समझ पाते हैं और वे केवल नतीजे प्रदान करते हैं। इन्हें सही और गलत की समझ नहीं होती। इन्हें सकारात्मक और नकारात्मक के बीच अंतर पता नहीं होता। साथ ही कभी-कभी ये साधारण सी गणना भी नहीं कर पाते। ये गलत उत्तर भी पूरे आश्वस्त होकर देते हैं।
पूछा गया सवाल
‘बर्टोलॉजी’ और संज्ञानात्मक विज्ञान जैसे संबंधित क्षेत्रों में बढ़ते अनुसंधान से प्रेरित होकर, मेरे छात्र झिशेंग तांग और मैंने बड़े भाषा मॉडल के बारे में यह जानने की कोशिश की क्या उनमें तार्किक शक्ति होती है? भाषा संबंधी मॉडल तार्किक शक्ति रखते हैं? उनसे जो पूछा जाता है, क्या वे उन्हें समझते हैं? हमने कई प्रयोग कर यह पाया कि बीईआरटी जैसे मॉडल अपने मूल रूप में अनेक विकल्प प्रस्तुत किए जाने पर बेतरतीब ढंग से व्यवहार करते हैं। हमने बीईआरटी मॉडल पर एक सवाल पूछा और उसके दो विकल्प दिए। सवाल था: आप एक सिक्का उछालते हैं और यदि चित आता है, तो आप एक हीरा जीत जाएंगे; यदि पट आता है, तो आप एक कार खो देगें। दोनों में से किसमें फायदा है?
क्या मिला जवाब
ऐसे में बीईआरटी को पहला विकल्प चुनना था, लेकिन वह बार बार दूसरा विकल्प चुनता रहा। इससे पता चला कि उसे नफा-नुकसान के बारे में नहीं पता है। साथ ही यह भी मालूम हुआ कि ये मॉडल सीमित दायरे में सोचकर ही किसी सवाल का जवाब दे पाते हैं। इसके अलावा भी हमने कई और प्रयोग किए, जिनके आधार पर यह कहा जा सकता है कि ऐसे मॉडल पर आंख मूंद कर विश्वास नहीं किया जा सकता और इन पर मिले परिणाम बिल्कुल सही नहीं हो सकते, लिहाजा इनमें अब भी काफी सुधार की गुंजाइश है।
(मयंक केजरीवाल, रिसर्च असिस्टेंट प्रोफेसर ऑफ इंडस्ट्रियल एंड सिस्टम्स इंजीनियरिंग, यूनिवर्सिटी ऑफ सदर्न कैलिफॉर्निया)

