🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

Autoencodeur Variationnel (VAE)

Architecture de réseau neuronal probabiliste qui apprend une distribution sur l'espace latent pour générer de nouvelles données en échantillonnant depuis cette distribution apprise.

📖
শব্দ

Réparamétrisation (Reparameterization Trick)

Technique permettant la différenciation à travers des opérations stochastiques en séparant le bruit aléatoire des paramètres déterministes du modèle.

📖
শব্দ

Evidence Lower Bound (ELBO)

Fonction objectif maximisée dans les VAEs qui combine la reconstruction des données et la régularisation de l'espace latent pour approximer la vraisemblance marginale.

📖
শব্দ

Distribution Postérieure Approximative

Distribution probabiliste dans l'espace latent qui approxime la véritable distribution postérieure trop complexe à calculer directement.

📖
শব্দ

Perte de Reconstruction

Terme de la fonction objectif VAE qui mesure la dissimilarité entre les données originales et leur reconstruction après passage dans l'espace latent.

📖
শব্দ

Inférence Variationnelle

Méthode d'approximation de distributions postérieures complexes par optimisation plutôt que par échantillonnage direct, fondement théorique des VAEs.

📖
শব্দ

Bruit Variationnel

Variable aléatoire gaussienne introduite lors de la réparamétrisation pour permettre la génération d'échantillons différents à partir des mêmes paramètres.

📖
শব্দ

Modèle Génératif Probabiliste

Classe de modèles qui apprennent la distribution sous-jacente des données pour générer de nouveaux échantillons plausibles, incluant les VAEs comme représentant majeur.

📖
শব্দ

ম্যানিফোল্ড স্পেস

লেটেন্ট স্পেসে নিম্ন-মাত্রিক জ্যামিতিক কাঠামো যেখানে বাস্তব ডেটার এনকোডেড পয়েন্টগুলি স্বাভাবিকভাবে ঘনীভূত হয়।

📖
শব্দ

ডিস্ট্রিবিউশনাল রেগুলারাইজেশন

লেটেন্ট ডিস্ট্রিবিউশনগুলিকে একটি পূর্বনির্ধারিত ফর্ম (সাধারণত স্ট্যান্ডার্ড গাউসিয়ান) অনুসরণ করতে বাধ্য করার প্রক্রিয়া, লেটেন্ট স্পেসে মসৃণ স্যাম্পলিং নিশ্চিত করার জন্য।

📖
শব্দ

লেটেন্ট ট্র্যাভার্সাল

লেটেন্ট স্পেস অন্বেষণের কৌশল যেখানে একটি লেটেন্ট ডাইমেনশনকে পদ্ধতিগতভাবে পরিবর্তন করে জেনারেটেড ডেটার উপর এর প্রভাব পর্যবেক্ষণ করা হয়।

📖
শব্দ

কেএল অ্যানিলিং

প্রশিক্ষণ কৌশল যেখানে কেএল ডাইভারজেন্সের ওজন ধীরে ধীরে বৃদ্ধি করা হয়, ভিএই-এর প্রাথমিক শিক্ষাকে স্থিতিশীল করার জন্য।

📖
শব্দ

পোস্টেরিয়র কোল্যাপ্স

ঘটনা যেখানে এনকোডার ইনপুট ডেটা উপেক্ষা করে এবং সর্বদা প্রায়র ডিস্ট্রিবিউশন উৎপন্ন করে, মডেলটিকে একটি সাধারণ ডিকোডারে হ্রাস করে।

📖
শব্দ

বিটা-ভিএই

ভিএই-এর একটি বৈকল্পিক যা পুনর্গঠন এবং নিয়মিতকরণের মধ্যে ভারসাম্য নিয়ন্ত্রণ করার জন্য একটি বিটা ওজন প্রবর্তন করে, আরও ব্যাখ্যাযোগ্য লেটেন্ট উপস্থাপনাকে উৎসাহিত করে।

🔍

কোন ফলাফল পাওয়া যায়নি