Monday, April 21, 2025

NVIDIA चढ़ाई का परिचय देता है: भाषा मॉडल प्रीट्रेनिंग में पुनरावृत्त डेटा मिश्रण अनुकूलन के लिए एक रूपरेखा – Gadgets Solutions

-

प्रभावी प्रीट्रेनिंग डेटा मिश्रण के निर्माण में चुनौतियां

आकार और क्षमता में बड़े भाषा मॉडल (LLMS) पैमाने के रूप में, प्रेट्रिंग डेटा का विकल्प डाउनस्ट्रीम प्रदर्शन का एक महत्वपूर्ण निर्धारक बना हुआ है। अधिकांश एलएलएम को बड़े, वेब-स्केल डेटासेट जैसे कॉमन क्रॉल पर प्रशिक्षित किया जाता है, जो व्यापक कवरेज प्रदान करते हैं लेकिन स्पष्ट डोमेन लेबल की कमी होती है। यह क्यूरेटिंग मिश्रणों में कठिनाइयों का परिचय देता है जो डोमेन-विशिष्ट विशेषज्ञता के साथ सामान्य ज्ञान को संतुलित करते हैं।

मैनुअल डेटासेट क्यूरेशन, जैसा कि पाइल जैसे प्रयासों में देखा गया है, श्रम-गहन है और अच्छी तरह से पैमाने पर नहीं है। इसके अलावा, डेटा रचना और मॉडल प्रदर्शन के बीच गैर-संबंध संबंध यह निर्धारित करने के लिए इसे गैर-तुच्छ बनाता है कि डोमेन डेटा के कौन से अनुपात इष्टतम हैं। ये बाधाएं स्वचालित, स्केलेबल और अनुकूली डेटा चयन विधियों की आवश्यकता को प्रेरित करती हैं।

चढ़ाई: डेटा मिश्रण खोज के लिए एक पुनरावृत्ति ढांचा

इसे संबोधित करने के लिए, NVIDIA शोधकर्ताओं ने प्रस्तावित किया चढ़नाक्लस्टरिंग-आधारित पुनरावृत्ति डेटा मिश्रण बूटस्ट्रैपिंग-एक फ्रेमवर्क जो भाषा मॉडल प्रीट्रेनिंग के लिए डेटा मिश्रण की खोज और शोधन को स्वचालित करता है। चढ़ाई सामान्य या डोमेन-विशिष्ट उद्देश्यों के लिए अच्छी तरह से अनुकूल मिश्रणों की पहचान करने के लिए पुनरावृत्त अनुकूलन के साथ अनियंत्रित क्लस्टरिंग को जोड़ती है।

पाइपलाइन बड़े पैमाने पर टेक्स्ट डेटा को एक सिमेंटिक स्पेस में दिखावा करके शुरू होती है, जो कि एन्कोडर्स का उपयोग करके एक शब्दार्थ स्थान में होती है। K- साधन क्लस्टरिंग को तब डेटा को सुसंगत समूहों में व्यवस्थित करने के लिए लागू किया जाता है, जो सामग्री की गुणवत्ता और अतिरेक के आधार पर छंटाई और विलय हो जाते हैं। यह उम्मीदवार मिश्रणों के निर्माण का आधार बनाता है।

इसके बाद, चढ़ाई नमूना मिश्रणों का मूल्यांकन करने के लिए प्रॉक्सी मॉडल का उपयोग करती है और मिश्रण प्रदर्शन का अनुमान लगाने के लिए एक प्रतिगमन-आधारित भविष्यवक्ता (जैसे, LightGBM) को फिट करती है। एक पुनरावृत्ति बूटस्ट्रैपिंग प्रक्रिया उत्तरोत्तर नमूनाकरण स्थान को परिष्कृत करती है, उच्च प्रदर्शन वाले कॉन्फ़िगरेशन को प्राथमिकता देती है। यह एक निश्चित गणना बजट के तहत एक प्रभावी डेटा मिश्रण पर परिवर्तित करने की अनुमति देता है।

तकनीकी विवरण और डिजाइन विचार

अनुकूलन प्रक्रिया को द्वि-स्तरीय समस्या के रूप में तैयार किया गया है: निचले स्तर पर, प्रॉक्सी मॉडल को उम्मीदवार मिश्रण पर प्रशिक्षित किया जाता है; ऊपरी स्तर पर, एक भविष्यवक्ता को प्रदर्शन के परिणामों को अनुमानित करना सीखा जाता है। यह भविष्यवक्ता मिश्रण स्थान के कुशल अन्वेषण को सक्षम करते हुए, आगे के नमूने और छंटाई का मार्गदर्शन करता है।

चढ़ाई मिश्रण वजन में स्पार्सिटी का समर्थन करती है, कॉम्पैक्ट, डोमेन-प्रासंगिक डेटा सबसेट की खोज को प्रोत्साहित करती है। एंबेडिंग पर क्लस्टरिंग का उपयोग-टोकन-स्तरीय विशेषताओं के बजाय-समूहों के भीतर सिमेंटिक सुसंगतता। पुनरावृत्ति शोधन को गहराई (पूर्वानुमान सटीकता) के साथ चौड़ाई (खोज स्थान कवरेज) को संतुलित करने के लिए संरचित है, और एब्लेशन अध्ययनों से पुष्टि होती है कि पुनरावृत्तियों में सावधानीपूर्वक गणना आवंटन आवंटन अभिसरण और अंतिम प्रदर्शन में सुधार करता है।

फ्रेमवर्क प्रॉक्सी मॉडल आकार और क्लस्टर ग्रैन्युलरिटीज में भी मजबूती का प्रदर्शन करता है। जबकि बड़े प्रॉक्सी मॉडल थोड़ा बेहतर भविष्यवाणियां करते हैं, यहां तक ​​कि छोटे मॉडल भी प्रमुख संरचनात्मक रुझानों को संरक्षित करते हैं। इसी तरह, चढ़ाई प्रारंभिक क्लस्टर गणना के लिए अपेक्षाकृत असंवेदनशील है, बशर्ते कि यह एक उचित सीमा के भीतर हो।

अनुभवजन्य मूल्यांकन और अवलोकन

चढ़ाई का मूल्यांकन कई सामान्य तर्क कार्यों पर किया गया था, जिसमें PIQA, ARC (आसान और चुनौती), Hellaswag और Winogrande शामिल हैं। चढ़ाई-खोजे गए मिश्रणों पर प्रशिक्षित एक 1 बी-पैरामीटर मॉडल ने औसत सटीकता प्राप्त की 60.41%डोरमी और रेग्मिक्स जैसी तुलनीय आधार रेखाओं को बेहतर ढंग से।

जब 400 बी-टोकन प्रीट्रेनिंग तक विस्तारित किया जाता है, तो इस 1 बी मॉडल ने बेंचमार्क के एक व्यापक सूट पर लामा -3.2-1 बी को 2.0% से बेहतर बनाया। इसी तरह, सब -500 मीटर मॉडल श्रेणी में, चढ़ाई-आधारित प्रीट्रेनिंग ने स्मॉलम और टिनिलमा जैसे मॉडल पर लगातार सुधार किया।

डोमेन विशेषज्ञता आगे चढ़ाई की उपयोगिता पर प्रकाश डालती है। एसटीईएम, मानविकी और सामाजिक विज्ञानों में लक्षित एमएमएलयू बेंचमार्क में, चढ़ाई-प्रशिक्षित मॉडल ने यादृच्छिक चयन और संपूर्ण खोज आधारभूत दोनों को बेहतर बनाया। पुनरावृत्त प्रक्रिया ने प्रत्येक चरण पर लगातार लाभ दिखाया, जो भविष्य कहनेवाला मॉडल से प्रभावी मार्गदर्शन का संकेत देता है।

प्रजनन और आगे के शोध को सुविधाजनक बनाने के लिए, NVIDIA ने दो संसाधन जारी किए हैं:

  • क्लाइमब्लेब: एक 1.2-ट्रिलियन-टोकन कॉर्पस 20 सिमेंटिक समूहों में आयोजित किया गया।
  • चढ़ाई: कुशल प्रीट्रेनिंग के लिए एक 400 बिलियन-टोकन अनुकूलित मिश्रण।

क्लाइम्बमिक्स पर प्रशिक्षित मॉडल नेमोट्रॉन-सीसी जैसे डेटासेट पर प्रशिक्षित लोगों को प्रशिक्षित किया और समकक्ष टोकन बजट के तहत स्मॉलम, बेहतर स्केलिंग विशेषताओं का प्रदर्शन किया।

निष्कर्ष

चढ़ाई एलएलएम प्रीट्रेनिंग में डेटा मिश्रण के अनुकूलन के लिए एक व्यवस्थित दृष्टिकोण प्रस्तुत करती है। प्रॉक्सी-आधारित पुनरावृत्त खोज के साथ सिमेंटिक क्लस्टरिंग को मिलाकर, यह मैनुअल एनोटेशन या स्टेटिक ह्यूरिस्टिक्स पर निर्भरता से बचता है। विधि सामान्य और विशेषज्ञ प्रशिक्षण लक्ष्यों दोनों का समर्थन करती है और अलग -अलग गणना और डेटा बाधाओं के लिए अनुकूल है।

यह ढांचा डेटा-केंद्रित एआई में चल रहे प्रयासों में योगदान देता है, जो डेटा पाइपलाइनों के लिए एक स्केलेबल और राजसी विकल्प प्रदान करता है। इसका अनुभवजन्य प्रदर्शन मॉडल उपयोगिता को अधिकतम करने में डेटा मिश्रण अनुकूलन के महत्व को रेखांकित करता है, विशेष रूप से निश्चित संसाधन बजट के तहत।


इसकी जाँच पड़ताल करो एचएफ पर पेपर, क्लाइम्बब्लैब और एचएफ पर चढ़ाई । इसके अलावा, हमें फॉलो करना न भूलें ट्विटर और हमारे साथ जुड़ें तार -चैनल और लिंक्डइन जीआरओयूपी। हमारे साथ जुड़ने के लिए मत भूलना 90K+ एमएल सबरेडिट

🔥


NVIDIA चढ़ाई का परिचय देता है: भाषा मॉडल प्रीट्रेनिंग में पुनरावृत्त डेटा मिश्रण अनुकूलन के लिए एक रूपरेखा
 – Gadgets Solutions

Asif Razzaq MarkTechPost Media Inc के सीईओ हैं .. एक दूरदर्शी उद्यमी और इंजीनियर के रूप में, ASIF सामाजिक अच्छे के लिए कृत्रिम बुद्धिमत्ता की क्षमता का उपयोग करने के लिए प्रतिबद्ध है। उनका सबसे हालिया प्रयास एक आर्टिफिशियल इंटेलिजेंस मीडिया प्लेटफॉर्म, मार्कटेकपोस्ट का शुभारंभ है, जो मशीन लर्निंग और डीप लर्निंग न्यूज के अपने गहन कवरेज के लिए खड़ा है, जो तकनीकी रूप से ध्वनि और आसानी से एक व्यापक दर्शकों द्वारा समझ में आता है। मंच 2 मिलियन से अधिक मासिक विचारों का दावा करता है, दर्शकों के बीच अपनी लोकप्रियता को दर्शाता है।

LEAVE A REPLY

Please enter your comment!
Please enter your name here

FOLLOW US

150,000FansLike
35,000FollowersFollow
100,000SubscribersSubscribe

Related Stories

Translate »