जर्मनी के बाथ विश्वविद्यालय और डार्मस्टाट तकनीकी विश्वविद्यालय के नए शोध के अनुसार, चैटजीपीटी और अन्य बड़े भाषा मॉडल (एलएलएम) में स्वतंत्र रूप से सीखने या नए कौशल प्राप्त करने की क्षमता नहीं है, जिससे मानवता के लिए कोई अस्तित्वगत खतरा नहीं है।
कम्प्यूटेशनल भाषाविज्ञान संघ (एसीएल 2024) की 62वीं वार्षिक बैठक की कार्यवाही के हिस्से के रूप में प्रकाशित अध्ययन से पता चला है कि एलएलएम निर्देशों का पालन कर सकते हैं और भाषा दक्षता प्रदर्शित कर सकते हैं, लेकिन वे स्पष्ट निर्देश के बिना नए कौशल में महारत हासिल नहीं कर सकते। नतीजतन, इन मॉडलों को स्वाभाविक रूप से नियंत्रणीय, पूर्वानुमान योग्य और सुरक्षित माना जाता है।
यूरेका अलर्ट वेबसाइट पर प्रकाशित रिपोर्ट की प्रेस विज्ञप्ति।
शोध दल ने निष्कर्ष निकाला कि लगातार बड़े डेटासेट पर प्रशिक्षित होने के बावजूद, LLM को बिना किसी महत्वपूर्ण सुरक्षा चिंता के तैनात किया जा सकता है। हालाँकि, इस तकनीक के दुरुपयोग का जोखिम अभी भी बना हुआ है।
बाथ विश्वविद्यालय के कंप्यूटर वैज्ञानिक और अध्ययन के सह-लेखक डॉ. हरीश तैयर मदबुशी ने कहा, “प्रचलित धारणा कि इस प्रकार का एआई मानवता के लिए खतरा है, इन प्रौद्योगिकियों को व्यापक रूप से अपनाने और विकसित करने में बाधा उत्पन्न करता है, और उन वास्तविक मुद्दों से भी ध्यान हटाता है जिन पर हमारा ध्यान देने की आवश्यकता है।”
डार्मस्टाट तकनीकी विश्वविद्यालय में प्रोफेसर इरीना गुरेविच के नेतृत्व में अनुसंधान दल ने एलएलएम की उन कार्यों को पूरा करने की क्षमता का परीक्षण करने के लिए प्रयोग किए, जिनका सामना उन्होंने पहले नहीं किया था, जिन्हें “उभरती हुई क्षमताएं” कहा जाता है।
जबकि एलएलएम स्पष्ट प्रोग्रामिंग के बिना सामाजिक स्थितियों के बारे में प्रश्नों का उत्तर दे सकते हैं, शोधकर्ताओं ने पाया कि यह मॉडल के “इन-कन्टेक्स्ट लर्निंग” (आईसीएल) के उपयोग के कारण है, जहां वे उन्हें दिए गए उदाहरणों के आधार पर कार्य पूरा करते हैं।
डॉ. तय्यार मदबुशी ने कहा, “डर यह है कि जैसे-जैसे मॉडल बड़े होते जाएंगे, वे अप्रत्याशित रूप से नई समस्याओं को हल कर सकते हैं, जिससे तर्क और योजना बनाने जैसी खतरनाक क्षमताओं के लिए खतरा पैदा हो सकता है। हमारा अध्ययन दिखाता है कि यह डर वैध नहीं है।”
अध्ययन के निष्कर्ष एलएलएम के संभावित अस्तित्वगत खतरे पर चिंताओं को चुनौती देते हैं, जिसे वैश्विक स्तर पर शीर्ष एआई शोधकर्ताओं द्वारा आवाज दी गई है। हालांकि, शोध दल मौजूदा जोखिमों को संबोधित करने के महत्व पर जोर देता है, जैसे कि फर्जी खबरों का निर्माण और धोखाधड़ी की बढ़ती संभावना।
प्रोफेसर गुरेविच ने कहा, “हमारे परिणामों का यह मतलब नहीं है कि एआई कोई खतरा नहीं है। बल्कि, हम दिखाते हैं कि विशिष्ट खतरों से जुड़े जटिल सोच कौशल के कथित उद्भव को साक्ष्य द्वारा समर्थित नहीं किया गया है। भविष्य के शोध को इन मॉडलों द्वारा उत्पन्न अन्य जोखिमों पर ध्यान केंद्रित करना चाहिए।”