एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Learning without Forgetting (LwF)
एक ऐसा दृष्टिकोण जो नए कार्य को सीखते समय पुराने डेटा पर मॉडल की प्रतिक्रियाओं को सुरक्षित रखने के लिए ज्ञान आसवन (knowledge distillation) का उपयोग करता है। मूल मॉडल अद्यतन मॉडल का मार्गदर्शन करने के लिए एक शिक्षक के रूप में कार्य करता है, जिससे पिछले कार्यों में प्रदर्शन में गिरावट से बचा जाता है।
Orthogonal Gradient Descent (OGD)
एक विधि जो नए कार्य के ढाल (gradient) को पिछले कार्यों के ढाल उप-स्थानों के लंबवत स्थान पर प्रक्षेपित करती है। यह प्रक्षेपण यह सुनिश्चित करता है कि नए कार्यों का सीखना पिछले प्रदर्शन के लिए महत्वपूर्ण दिशाओं के साथ हस्तक्षेप नहीं करता है।
Dynamical Expandable Networks (DEN)
एक ढांचा जो जरूरत पड़ने पर नई इकाइयों और कनेक्शन जोड़कर, साथ ही मौजूदा कनेक्शन को चयनात्मक रूप से पुनः सक्रिय या निष्क्रिय करते हुए नेटवर्क को गतिशील रूप से विस्तारित करता है। DEN मॉडल की क्षमता को नई आवश्यकताओं के अनुसार अनुकूलित करता है, बिना पिछले प्रदर्शन को बिगाड़े।
PackNet
एक नियमन तकनीक जो निश्चित बाइनरी मास्क और विरलता बाधाओं (sparsity constraints) के माध्यम से प्रत्येक कार्य के लिए विशिष्ट तंत्रिका उप-नेटवर्क सौंपती है। PackNet संसाधनों को विभाजित करके बिना किसी हस्तक्षेप के एक ही नेटवर्क में कई कार्यों को समायोजित करने की अनुमति देता है।
HAT (Hard Attention to the Task)
एक विधि जो नेटवर्क के सक्रिय भार (weights) का चयन करने के लिए प्रति कार्य बाइनरी ध्यान मास्क सीखती है, जिससे प्रत्येक कार्य के लिए समर्पित पथ बनते हैं। HAT विभिन्न कार्यों के लिए भार के विभिन्न उप-समुच्चयों के उपयोग को प्रोत्साहित करने के लिए नियमन का उपयोग करता है।
CWR (Copy Weight with Reinit)
एक रणनीति जो प्रत्येक कार्य को सीखने के बाद मॉडल के भारों (weights) की प्रतिलिपि बनाती है और नए कार्य को सीखने के लिए कुछ भारों को चयनात्मक रूप से पुनः प्रारंभ करती है। CWR महत्वपूर्ण भारों की एक प्रतिलिपि बनाए रखता है, साथ ही नई जानकारी के लिए अनुकूलन की अनुमति भी देता है।
PathNet
एक विकासवादी वास्तुकला जहां सर्वोत्तम संयोजन खोजने के लिए आनुवंशिक एल्गोरिदम का उपयोग करते हुए प्रत्येक विशिष्ट कार्य के लिए तंत्रिका पथों का चयन और अनुकूलन किया जाता है। PathNet मॉड्यूल का पुनः उपयोग करने की अनुमति देता है, साथ ही कार्य के अनुसार मापदंडों को अलग करता है।
Sup-Sup (Superposition of Superpositions)
एक तकनीक जो नेटवर्क मापदंडों के उपयोग को अधिकतम करने के लिए भार अधिव्यापन (superposition) को कार्य अधिव्यापन (multi-task) के साथ जोड़ती है। Sup-Sup एक कॉम्पैक्ट नेटवर्क को बिना भूलने के एक साथ कई कार्यों को संग्रहीत और निष्पादित करने की अनुमति देता है।