मेटा प्लेटफॉर्म्स ने मंगलवार को अपने अधिकांशतः निःशुल्क लामा 3 कृत्रिम बुद्धिमत्ता मॉडल का सबसे बड़ा संस्करण जारी किया, जिसमें बहुभाषी कौशल और सामान्य प्रदर्शन मीट्रिक्स का दावा किया गया है, जो ओपनएआई जैसे प्रतिद्वंद्वियों के सशुल्क मॉडल्स से मुकाबला करता है।
फेसबुक की मूल कंपनी ने ब्लॉग पोस्ट और एक शोध पत्र में इसकी रिलीज की घोषणा करते हुए कहा कि नया लामा 3 मॉडल आठ भाषाओं में बातचीत कर सकता है, उच्च गुणवत्ता वाला कंप्यूटर कोड लिख सकता है और पिछले संस्करणों की तुलना में अधिक जटिल गणित की समस्याओं को हल कर सकता है।
इसके 405 बिलियन पैरामीटर या वेरिएबल्स, जिन्हें एल्गोरिथ्म उपयोगकर्ता के प्रश्नों के उत्तर तैयार करने के लिए ध्यान में रखता है, पिछले वर्ष जारी किए गए पिछले संस्करण से छोटे हैं, हालांकि यह प्रतिस्पर्धियों द्वारा प्रस्तुत अग्रणी मॉडलों से अभी भी छोटा है।
इसके विपरीत, ओपनएआई के जीपीटी-4 मॉडल में एक ट्रिलियन पैरामीटर होने की सूचना है, तथा अमेज़न 2 ट्रिलियन पैरामीटर वाले मॉडल में निवेश कर रहा है।
यह विज्ञप्ति ऐसे समय में आई है, जब प्रौद्योगिकी कंपनियां यह दिखाने में लगी हैं कि संसाधन-भूखे बड़े भाषा मॉडलों का उनका बढ़ता पोर्टफोलियो, उन्नत तर्क जैसे ज्ञात समस्या क्षेत्रों में पर्याप्त लाभ पहुंचा सकता है, जो उनमें निवेश की गई भारी रकम को उचित ठहरा सकता है।
कंपनी ने कहा कि अपने प्रमुख 405 बिलियन पैरामीटर मॉडल के अलावा, मेटा अपने हल्के वजन वाले 8 बिलियन और 70 बिलियन पैरामीटर लामा 3 मॉडल के अद्यतन संस्करण भी जारी कर रही है, जिन्हें शुरू में वसंत में पेश किया गया था।
सभी तीन नए मॉडल बहुभाषी हैं और विस्तारित “संदर्भ विंडो” के माध्यम से बड़े उपयोगकर्ता अनुरोधों को संभाल सकते हैं, जिसके बारे में मेटा के जनरेटिव एआई के प्रमुख अहमद अल-दहले ने कहा कि इससे विशेष रूप से कंप्यूटर कोड बनाने के अनुभव में सुधार होगा।
अल-दहले ने रॉयटर्स को दिए एक साक्षात्कार में बताया कि “यह समुदाय से हमें प्राप्त सबसे अच्छी प्रतिक्रिया थी”, उन्होंने बताया कि बड़े संदर्भ विंडो से मॉडलों को लम्बी मेमोरी जैसी सुविधा मिलती है, जो बहु-चरणीय अनुरोधों को संसाधित करने में सहायक होती है।
मेटा अपने लामा मॉडल को डेवलपर्स द्वारा उपयोग के लिए बड़े पैमाने पर निःशुल्क जारी करता है, एक रणनीति जिसके बारे में मुख्य कार्यकारी मार्क जुकरबर्ग का कहना है कि यह अभिनव उत्पादों और कंपनी के मुख्य सामाजिक नेटवर्क पर अधिक जुड़ाव के रूप में भुगतान करेगी। हालाँकि, कुछ निवेशकों ने लागतों पर अपनी भौहें उठाई हैं।
कंपनी को तब भी लाभ होगा जब डेवलपर्स इसके मुफ़्त मॉडल को भुगतान वाले मॉडल के बजाय इस्तेमाल करना पसंद करेंगे, जो इसके प्रतिद्वंद्वियों के व्यवसाय मॉडल को कमज़ोर कर देगा। अपनी घोषणा के साथ, मेटा ने प्रमुख गणित और ज्ञान परीक्षणों पर लाभ का दावा किया जो उस संभावना को और अधिक आकर्षक बना सकता है।
यद्यपि एआई विकास की प्रगति को मापना बेहद कठिन है, मेटा द्वारा उपलब्ध कराए गए परीक्षण के परिणाम यह सुझाव देते हैं कि इसका सबसे बड़ा लामा 3 मॉडल लगभग बराबरी कर रहा है और कुछ मामलों में एंथ्रोपिक के क्लाउड 3.5 सॉनेट और ओपनएआई के जीपीटी-4o को पीछे छोड़ रहा है, जिन्हें व्यापक रूप से बाजार में दो सबसे शक्तिशाली फ्रंटियर मॉडल माना जाता है।
उदाहरण के लिए, प्रतियोगिता स्तर के गणित शब्द समस्याओं के MATH बेंचमार्क पर, मेटा के मॉडल ने 73.8 का स्कोर पोस्ट किया, जबकि GPT-4o का 76.6 और क्लाउड 3.5 सॉनेट का 71.1 था।
इस मॉडल को एम.एम.एल.यू. पर 88.6 अंक प्राप्त हुए, जो एक बेंचमार्क है तथा गणित, विज्ञान और मानविकी के दर्जनों विषयों को कवर करता है, जबकि जी.पी.टी.-4o को 88.7 अंक प्राप्त हुए तथा क्लाउड 3.5 सॉनेट को 88.3 अंक प्राप्त हुए।
अपने शोधपत्र में, मेटा शोधकर्ताओं ने इस वर्ष के अंत में आने वाले मॉडल के “मल्टीमॉडल” संस्करणों का भी संकेत दिया है, जो कोर लामा 3 टेक्स्ट मॉडल के शीर्ष पर छवि, वीडियो और भाषण क्षमताओं को शामिल करेंगे।
उन्होंने कहा कि प्रारंभिक प्रयोगों से पता चलता है कि ये मॉडल अन्य मल्टीमॉडल मॉडल जैसे कि गूगल के जेमिनी 1.5 और एंथ्रोपिक के क्लाउड 3.5 सॉनेट के साथ “प्रतिस्पर्धात्मक” प्रदर्शन कर सकते हैं।