🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

কোয়ান্টিফিকেশন

এআই মডেলের ওজন এবং অ্যাক্টিভেশনের সংখ্যাসূচক নির্ভুলতা হ্রাস করার প্রক্রিয়া, ইনফারেন্স অপ্টিমাইজ করতে এবং মেমরি ফুটপ্রিন্ট কমাতে।

📖
শব্দ

৮-বিট কোয়ান্টিফিকেশন

এলএলএম-এর জন্য পারফরম্যান্স এবং নির্ভুলতার মধ্যে সর্বোত্তম ভারসাম্য প্রদান করে মডেলের ওজন ৩২ বিট থেকে ৮ বিটে হ্রাস করার কম্প্রেশন কৌশল।

📖
শব্দ

৪-বিট কোয়ান্টিফিকেশন

ওজন ৪ বিটে হ্রাস করার চরম কম্প্রেশন পদ্ধতি, যা মেমরিতে উল্লেখযোগ্য লাভ প্রদান করে কিন্তু সম্ভাব্য গুণমান হ্রাস সহ।

📖
শব্দ

পোস্ট-ট্রেনিং কোয়ান্টিফিকেশন (PTQ)

মডেল প্রশিক্ষণের পরে প্রয়োগ করা কৌশল, সম্পূর্ণ পুনঃপ্রশিক্ষণের প্রয়োজন ছাড়াই ওজনকে হ্রাসিত নির্ভুলতায় রূপান্তর করে।

📖
শব্দ

কোয়ান্টিফিকেশন অ্যাওয়ার ট্রেনিং (QAT)

নির্ভুলতা হ্রাস কমানোর জন্য শেখার প্রক্রিয়া চলাকালীন কোয়ান্টিফিকেশনের প্রভাব সিমুলেট করে প্রশিক্ষণের পদ্ধতি।

📖
শব্দ

ডাইনামিক কোয়ান্টিফিকেশন

ইনফারেন্সে প্রয়োগ করা পদ্ধতি যেখানে অ্যাক্টিভেশনগুলি রিয়েল-টাইমে কোয়ান্টিফাইড হয়, নমনীয়তা প্রদান করে কিন্তু গণনামূলক ওভারহেড সহ।

📖
শব্দ

স্ট্যাটিক কোয়ান্টিফিকেশন

ইনফারেন্সের আগে কোয়ান্টিফিকেশন প্যারামিটার প্রাক-গণনা করে, নমনীয়তার বিনিময়ে গতি অপ্টিমাইজ করে।

📖
শব্দ

কোয়ান্টিফিকেশন ক্যালিব্রেশন

প্রতিনিধিত্বমূলক ডেটার একটি নমুনা থেকে সর্বোত্তম কোয়ান্টিফিকেশন প্যারামিটার (স্কেল, জিরো-পয়েন্ট) নির্ধারণের প্রক্রিয়া।

📖
শব্দ

GPTQ

Gradient-based Post Training Quantization, technique avancée optimisant itérativement les poids quantifiés pour minimiser l'erreur de reconstruction.

📖
শব্দ

AWQ

Activation-aware Weight Quantization, méthode pondérant l'importance des poids selon l'amplitude des activations correspondantes.

📖
শব্দ

Zero-shot Quantification

Technique ne nécessitant aucune donnée de calibration, utilisant des heuristiques basées sur la distribution des poids pour quantifier le modèle.

📖
শব্দ

Mixed Precision Quantification

Stratégie appliquant différentes précisions de quantification selon les couches du modèle pour optimiser le compromis performance/précision.

📖
শব্দ

Quantification Symétrique

Schéma de quantification où la plage de valeurs est centrée autour de zéro, simplifiant les calculs mais pouvant sous-exploiter la plage dynamique.

📖
শব্দ

Quantification Asymétrique

Approche permettant des plages de valeurs non centrées sur zéro, optimisant l'utilisation de la plage quantifiée pour des distributions asymétriques.

📖
শব্দ

Scale Factor

Paramètre multiplicatif utilisé pour mapper les valeurs continues dans la plage quantifiée, crucial pour la précision de la quantification.

📖
শব্দ

Zero Point

Offset ajouté lors de la quantification asymétrique pour aligner la valeur zéro en virgule flottante avec la représentation quantifiée.

📖
শব্দ

কোয়ান্টাইজেশন নয়েজ

নির্ভুলতা হ্রাসের মাধ্যমে প্রবর্তিত ত্রুটি, যা ওজনগুলির আনুমানিকতার কারণে মডেলের কর্মক্ষমতা অবনতি হিসেবে প্রকাশ পায়।

📖
শব্দ

কোয়ান্টাইজেশন-সচেতন ফাইন-টিউনিং

মডেল সংকোচনের সময় হারানো নির্ভুলতা পুনরুদ্ধারের লক্ষ্যে কোয়ান্টাইজেশন-পরবর্তী হালকা সমন্বয় প্রক্রিয়া।

📖
শব্দ

স্মুথকোয়ান্ট

পূর্ববর্তী গাণিতিক রূপান্তরের মাধ্যমে ওজন এবং অ্যাক্টিভেশনগুলির মধ্যে কোয়ান্টাইজেশন কঠিনতা সমান করার কৌশল।

📖
শব্দ

LLM.int8()

বৃহৎ ভাষা মডেলের জন্য ৮-বিট কোয়ান্টাইজেশনের নির্দিষ্ট পদ্ধতি, যা ম্যাট্রিক্স ডিকম্পোজিশন এবং হাইব্রিড কোয়ান্টাইজেশন একত্রিত করে।

🔍

কোন ফলাফল পাওয়া যায়নি