एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Quantization-Aware Training (QAT)
डीप लर्निंग मॉडल को प्रशिक्षित करने की एक विधि जो पोस्ट-क्वांटाइज़ेशन प्रदर्शन को अनुकूलित करने के लिए शिक्षण प्रक्रिया के दौरान क्वांटाइज़ेशन का अनुकरण करती है।
Fake Quantization
एक ऐसी ऑपरेशन जो बैकप्रोपैगेशन के लिए ग्रेडिएंट को बनाए रखते हुए मानों को पूर्णांकित करके प्रशिक्षण के दौरान क्वांटाइज़ेशन के प्रभावों का अनुकरण करती है।
Quantization Range
फ़्लोटिंग-पॉइंट संख्याओं को क्वांटाइज़्ड पूर्णांकों में मैप करने के लिए उपयोग किया जाने वाला मानों का अंतराल [min, max], जो निरूपण की सटीकता निर्धारित करता है।
Symmetric Quantization
एक क्वांटाइज़ेशन तकनीक जहां अंतराल शून्य के चारों ओर केंद्रित होता है, जो गणनाओं को सरल बनाता है लेकिन असममित वितरणों के लिए दक्षता को कम कर सकता है।
Asymmetric Quantization
एक क्वांटाइज़ेशन विधि जो शून्येतर शून्य-बिंदु का उपयोग करती है, जो गैर-केंद्रित वितरणों के लिए डायनामिक रेंज के उपयोग को अनुकूलित करती है।
Dynamic Range Quantization
उपलब्ध बिट्स के उपयोग को अनुकूलित करने के लिए निष्पादन के दौरान क्वांटाइज़ेशन रेंज को गतिशील रूप से समायोजित करने वाली तकनीक।
Per-Tensor Quantization
एक विधि जो क्वांटाइज़ेशन पैरामीटर के एकल सेट को पूरे टेंसर पर लागू करती है, जिससे कार्यान्वयन सरल हो जाता है।
Integer-Only Quantization
एक दृष्टिकोण जो फ़्लोटिंग-पॉइंट ऑपरेशन को पूरी तरह से समाप्त कर देता है, जिसके लिए मॉडल की सटीकता बनाए रखने के लिए विशेष तकनीकों की आवश्यकता होती है।
स्तर-वार मात्रांकन
एक रणनीति जो प्रत्येक परत की विशिष्ट विशेषताओं और संवेदनशीलता के अनुसार उसके मात्रांकन को व्यक्तिगत रूप से अनुकूलित करती है।
मात्रांकन संवेदनशीलता विश्लेषण
मॉडल के प्रत्येक घटक पर मात्रांकन के प्रभाव का मूल्यांकन करने की प्रक्रिया, ताकि उन परतों की पहचान की जा सके जिन्हें विशेष ध्यान देने की आवश्यकता है।
मात्रांकन-जागरूक प्रशिक्षण लूप
एक संशोधित प्रशिक्षण चक्र जो प्रत्येक फॉरवर्ड और बैकवर्ड पास के दौरान मात्रांकन सिमुलेशन ऑपरेशन को एकीकृत करता है।
बैच फोल्डिंग
एक अनुकूलन तकनीक जो मात्रांकन से पहले बैच नॉर्मलाइज़ेशन पैरामीटर को कन्वोल्यूशनल वेट्स के साथ विलय कर देती है।
QAT में ग्रेडिएंट क्लिपिंग
एक विधि जो अनुमानों के बावजूद अभिसरण को स्थिर करने के लिए मात्रांकित प्रशिक्षण के दौरान ग्रेडिएंट के परिमाण को सीमित करती है।
चरणबद्ध मात्रांकन
एक प्रगतिशील दृष्टिकोण जो मॉडल के अनुकूलन में सहायता के लिए प्रशिक्षण के दौरान मात्रांकन के स्तर को धीरे-धीरे बढ़ाता है।