एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
रियल-टाइम रीइन्फोर्समेंट लर्निंग
एक सीखने का तरीका जहां एजेंट गतिशील वातावरण के साथ तत्काल इंटरैक्शन के माध्यम से लगातार अपने व्यवहार को अनुकूलित करते हैं। यह दृष्टिकोण स्ट्रीमिंग में प्राप्त पुरस्कारों के आधार पर कार्य नीतियों को तुरंत अपडेट करने की अनुमति देता है।
स्ट्रीमिंग क्यू-लर्निंग
क्यू-लर्निंग एल्गोरिदम का एक संस्करण जो निरंतर डेटा प्रसंस्करण के लिए अनुकूलित है, जो नए अनुभव आने पर क्यू-वैल्यू तालिका को अपडेट करता है। यह विधि गैर-स्थिर वातावरण में अन्वेषण और दोहन के बीच संतुलन बनाए रखती है।
ऑनलाइन पॉलिसी ग्रेडिएंट
नीति अनुकूलन की एक विधि जो वर्तमान अनुभवों पर गणना किए गए ग्रेडिएंट के माध्यम से न्यूरल नेटवर्क के पैरामीटर को वास्तविक समय में समायोजित करती है। यह दृष्टिकोण निरंतर कार्य स्थान और गतिशील वातावरण के लिए विशेष रूप से प्रभावी है।
वितरित एक्टर-क्रिटिक
सीखने की एक वास्तुकला जहां एक्टर कार्यों का प्रस्ताव करता है और क्रिटिक उनकी गुणवत्ता का मूल्यांकन करता है, जिसमें कई एजेंटों के बीच समन्वित अपडेट होते हैं। यह विधि वितरित प्रणालियों पर वास्तविक समय सीखने के कुशल समानांतरकरण की अनुमति देती है।
निरंतर सीखना
एक दृष्टिकोण जहां एजेंट महत्वपूर्ण पर्यावरणीय परिवर्तनों का सामना करने पर भी बिना रीसेट किए अपने ज्ञान को बनाए रखता है और सुधारता है। यह तकनीक नई गतिशील परिस्थितियों के अनुकूल होते हुए भी विनाशकारी भूलने से बचाती है।
अनुकूली अन्वेषण-दोहन
एक गतिशील रणनीति जो नए कार्यों की खोज और अर्जित ज्ञान का दोहन करने के बीच समझौते को स्वचालित रूप से समायोजित करती है। अनुकूली एल्गोरिदम प्रदर्शन और पर्यावरणीय परिवर्तनशीलता के आधार पर इस पैरामीटर को नियंत्रित करते हैं।
रियल-टाइम संदर्भिक बैंडिट्स
बहु-सशस्त्र डाकू समस्या का विस्तार जहां एजेंट लगातार देखे गए संदर्भों के आधार पर कार्यों का चयन करता है। यह विधि गतिशील सिफारिश प्रणालियों में तत्काल प्रतिक्रिया के साथ अनुक्रमिक निर्णयों को अनुकूलित करती है।
ऑनलाइन मेटा-लर्निंग
एक तकनीक जहां एजेंट न्यूनतम उदाहरणों के साथ वास्तविक समय में नए कार्यों से प्रभावी ढंग से सीखना सीखता है। यह दृष्टिकोण नए वातावरण या वितरण परिवर्तनों के लिए त्वरित अनुकूलन की अनुमति देता है।
वितरित बहु-एजेंट सुदृढ़ीकरण सीख
एक प्रतिमान जहां कई एजेंट एक साझा और परिवर्तनशील वातावरण में एक साथ सीखते हैं और अपने कार्यों का समन्वय करते हैं। एजेंटों के बीच संचार और सीखने के समन्वय को वास्तविक समय के लिए अनुकूलित किया जाता है।
गैर-स्थिर सुदृढ़ीकरण सीख
एक सैद्धांतिक ढांचा जो उन वातावरणों से संबंधित है जहां संक्रमण संभावनाएं और पुरस्कार समय के साथ विकसित होते हैं। विशेष एल्गोरिदम इन वितरण परिवर्तनों का लगातार पता लगाते हैं और उनके अनुकूल होते हैं।
एपिसोड-शून्य सुदृढ़ीकरण सीख
एक दृष्टिकोण जहां एजेंट स्पष्ट एपिसोड विभाजन के बिना निरंतर अंतःक्रियाओं से सीधे सीखता है। यह विधि उन प्रणालियों के लिए विशेष रूप से उपयुक्त है जो प्राकृतिक एपिसोड सीमाएं प्रस्तुत नहीं करती हैं।
निरंतर सुदृढ़ीकरण सीख
सीखने का एक प्रतिमान जहां एजेंट को लगातार विकसित हो रहे वातावरण में एक साथ प्रदर्शन करना और सुधार करना होता है। यह दृष्टिकोण प्रशिक्षण और तैनाती चरणों के बीच अंतर को समाप्त करता है।
स्ट्रीम सुदृढ़ीकरण सीख
स्मृति और गणना की सख्त बाधाओं के साथ डेटा के अनंत अनुक्रमों को संसाधित करने के लिए अनुकूलित कार्यप्रणाली। स्ट्रीम एल्गोरिदम आने वाले डेटा पर एकल पास के साथ मॉडल अपडेट करते हैं।
अतुल्यकालिक सुदृढ़ीकरण सीख
एक वास्तुकला जहां कई एजेंट या थ्रेड स्वतंत्र रूप से वातावरण का अन्वेषण करते हैं और एक साझा मॉडल को अतुल्यकालिक रूप से अपडेट करते हैं। यह दृष्टिकोण वास्तविक समय सीखने के लिए कम्प्यूटेशनल संसाधनों के उपयोग को अधिकतम करता है।
उभरता हुआ सुदृढ़ीकरण सीख
एक घटना जहां जटिल और अनुकूली व्यवहार सरल एजेंटों की अपने वातावरण के साथ निरंतर अंतःक्रिया से स्वतःस्फूर्त रूप से उभरते हैं। ये व्यवहार जटिल रणनीतियों की स्पष्ट प्रोग्रामिंग के बिना विकसित और परिष्कृत होते हैं।
अनुकूली पाठ्यक्रम सीख
एक रणनीति जहां एजेंट को प्रस्तुत किए गए कार्यों की कठिनाई उसके वर्तमान प्रदर्शन के आधार पर गतिशील रूप से समायोजित होती है। यह दृष्टिकोण एजेंट के लिए चुनौती के इष्टतम स्तर को बनाए रखकर सीखने में तेजी लाता है।