8B और 70B पैरामीटर्स के साथ Meta Llama 3 AI मॉडल लॉन्च किए गए, कहा गया कि यह Google के जेमिनी 1.5 Pro से बेहतर प्रदर्शन करेगा जानिए कैसे
Meta इस साल के अंत में 400 बिलियन से अधिक मापदंडों के साथ अपने बड़े Llama 3 AI मॉडल लॉन्च करेगा।
Table of Contents
Meta के दो New मॉडल्स
Meta ने गुरुवार को अपने कृत्रिम बुद्धिमत्ता (AI) मॉडल, Llama 3 8B और 70B की अगली पीढ़ी पेश की। बड़े भाषा मॉडल मेटा AI के लिए संक्षिप्त, लामा 3 अपने पूर्ववर्ती की तुलना में बेहतर क्षमताओं के साथ आता है। कंपनी ने मॉडल्स की दक्षता को अनुकूलित करने के लिए नई प्रशिक्षण विधियों को भी अपनाया।
दिलचस्प बात यह है कि लामा 2 के साथ, सबसे बड़ा मॉडल 70B था, लेकिन इस बार कंपनी ने कहा कि उसके बड़े मॉडल में 400 बिलियन से अधिक पैरामीटर होंगे। विशेष रूप से, पिछले हफ्ते एक रिपोर्ट से पता चला था कि Meta April में अपने छोटे AI मॉडल और बाद में गर्मियों में अपने बड़े मॉडल का अनावरण करेगा।
Meta Llama 3 उपलब्धता
लोग नए AI मॉडल को आज़माने में रुचि रखते हैं, वे भाग्यशाली हैं क्योंकि मेटा Llama 3 के साथ समुदाय-प्रथम दृष्टिकोण अपना रहा है। नए फाउंडेशन मॉडल पिछले मॉडल की तरह ही ओपन सोर्स होंगे। मेटा ने अपने ब्लॉग पोस्ट में कहा, “Llama 3 मॉडल जल्द ही AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM, और Snowflake पर उपलब्ध होंगे और एएमडी द्वारा पेश किए गए हार्डवेयर प्लेटफॉर्म के समर्थन के साथ उपलब्ध होंगे।” AWS, Dell, Intel, NVIDIA, और क्वालकॉम।”
सूची में सभी प्रमुख cloud, hosting, और hardware प्लेटफ़ॉर्म शामिल हैं, जिससे उत्साही लोगों के लिए AI मॉडल प्राप्त करना आसान हो जाएगा। इसके अलावा, मेटा ने अपने स्वयं के Meta AI के साथ Llama 3 को भी एकीकृत किया है जिसे समर्थित देशों में Facebook Messenger, Instagram, और WhatsApp के माध्यम से एक्सेस किया जा सकता है।
Meta Llama 3 प्रदर्शन और वास्तुकला
प्रदर्शन की बात करें तो, सोशल मीडिया दिग्गज ने अपने पूर्व-प्रशिक्षित और निर्देश मॉडल दोनों के लिए Llama 3 के बेंचमार्क स्कोर साझा किए। संदर्भ के लिए, पूर्व-प्रशिक्षित सामान्य संवादी AI है जबकि निर्देश मॉडल का उद्देश्य विशिष्ट कार्यों को पूरा करना है।
लामा 3 70B के पूर्व-प्रशिक्षित मॉडल ने एमएमएलयू (79.5 बनाम 71.8), बिग-बेंच हार्ड (81.3 बनाम 75.0), और डीआरओपी (79.7 बनाम 74.1) बेंचमार्क में Google के जेमिनी 1.0 प्रो को पीछे छोड़ दिया, जबकि 70बी इंस्ट्रक्ट मॉडल ने जेमिनी को पछाड़ दिया। कंपनी द्वारा साझा किए गए डेटा के आधार पर एमएमएलयू, ह्यूमनएवल और जीएसएम-8के बेंचमार्क में 1.5 प्रो मॉडल।
Meta ने नए AI मॉडल के लिए डिकोडर-केवल ट्रांसफार्मर आर्किटेक्चर का विकल्प चुना है लेकिन पूर्ववर्ती की तुलना में इसमें कई सुधार किए हैं। Llama 3 अब 128K टोकन की शब्दावली के साथ एक टोकनाइज़र का उपयोग करता है, और कंपनी ने अनुमान दक्षता में सुधार के लिए समूहीकृत क्वेरी ध्यान (जीक्यूए) को अपनाया है।
जीक्यूए AI का ध्यान बेहतर बनाने में मदद करता है ताकि प्रश्नों का उत्तर देते समय यह अपने निर्दिष्ट संदर्भ से बाहर न जाए। सोशल मीडिया दिग्गज ने 15T से अधिक टोकन वाले मॉडलों को पूर्व-प्रशिक्षित किया है, जिसका दावा है कि यह सार्वजनिक रूप से उपलब्ध डेटा से प्राप्त किया गया है।