🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

Linear Discriminant Analysis (LDA)

Méthode statistique de réduction dimensionnelle supervisée qui projette les données dans un espace de dimension inférieure en maximisant la séparabilité entre les classes préalablement définies.

📖
শব্দ

Fisher's Linear Discriminant

Formulation originale de la LDA proposée par Ronald Fisher en 1936, visant à trouver la projection linéaire qui maximise le rapport entre la variance inter-classe et la variance intra-classe.

📖
শব্দ

Between-class Scatter Matrix

Matrice S_B mesurant la dispersion des centroides de classes autour du centroïde global, quantifiant la séparation entre différentes classes dans l'espace de caractéristiques.

📖
শব্দ

Within-class Scatter Matrix

Matrice S_W représentant la dispersion des échantillons autour de leurs centroides de classe respectifs, mesurant la cohésion intra-classe des données.

📖
শব্দ

Eigenvalue Decomposition

Processus mathématique consistant à décomposer la matrice S_W⁻¹S_B pour extraire les vecteurs propres qui définissent les axes discriminants optimaux en LDA.

📖
শব্দ

Discriminant Function

Fonction mathématique linéaire f(x) = w^T x + b où w est le vecteur discriminant, utilisée pour projeter les données et prendre des décisions de classification.

📖
শব্দ

Class Centroids

Points représentatifs moyens de chaque classe calculés comme la moyenne des vecteurs de caractéristiques de tous les échantillons appartenant à cette classe spécifique.

📖
শব্দ

Covariance Matrix

Matrice carrée Σ contenant les covariances entre toutes les paires de variables, essentielle pour caractériser la structure de dispersion intra-classe en LDA.

📖
শব্দ

প্রজেকশন ম্যাট্রিক্স

নির্বাচিত আইজেনভেক্টরগুলির কলাম হিসাবে গঠিত ম্যাট্রিক্স W, যা d-মাত্রিক ডেটাকে হ্রাসকৃত মাত্রার সাবস্পেসে রূপান্তর করতে ব্যবহৃত হয়।

📖
শব্দ

সুপারভাইজড ডাইমেনশনালিটি রিডাকশন

ক্লাস লেবেল ব্যবহার করে রূপান্তরকে নির্দেশিত করার জন্য ডাইমেনশনালিটি রিডাকশনের একটি পদ্ধতি, যা PCA-এর মতো আনসুপারভাইজড পদ্ধতির বিপরীত যেখানে এই তথ্য উপেক্ষা করা হয়।

📖
শব্দ

ক্লাস সেপারেবিলিটি

প্রজেক্টেড স্পেসে বিভিন্ন ক্লাসের মধ্যে পার্থক্যের পরিমাণগত পরিমাপ, যা LDA-তে রেলিঘ ভাগফল অপ্টিমাইজেশনের মাধ্যমে সর্বাধিক করা হয়।

📖
শব্দ

রেলিঘ ভাগফল

অনুপাত J(w) = (w^T S_B w)/(w^T S_W w) যা LDA-তে অপ্টিমাইজ করা হয় ইন্ট্রা-ক্লাস বিচ্ছুরণের সাপেক্ষে ইন্টার-ক্লাস বিভাজ্যতা সর্বাধিক করার জন্য প্রজেকশন দিকনির্দেশ খুঁজে পেতে।

📖
শব্দ

ক্যানোনিকাল ডিসক্রিমিন্যান্ট অ্যানালাইসিস

LDA-এর মাল্টিভেরিয়েট এক্সটেনশন যা ক্যানোনিকাল লিনিয়ার কম্বিনেশন খুঁজে পায় যা গ্রুপগুলিকে সবচেয়ে ভালোভাবে আলাদা করে, মাল্টিভেরিয়েট কনটেক্সটে ডিসক্রিমিন্যান্ট অ্যানালাইসিসের সমতুল্য।

📖
শব্দ

লিনিয়ার ক্লাসিফায়ার

LDA দ্বারা ট্রান্সফর্মড স্পেসে লিনিয়ার ডিসিশন বাউন্ডারি ব্যবহার করে ক্লাসিফিকেশন মডেল, যেখানে ক্লাসগুলি হাইপারপ্লেন দ্বারা পৃথক করা হয়।

📖
শব্দ

ডিসিশন বাউন্ডারি

ডিসক্রিমিন্যান্ট স্পেসে ক্লাসগুলিকে পৃথককারী হাইপারপ্লেন, গাণিতিকভাবে সেই বিন্দুগুলির সেট দ্বারা সংজ্ঞায়িত করা হয় যেখানে সন্নিহিত ক্লাসগুলির ডিসক্রিমিন্যান্ট ফাংশন সমান হয়।

📖
শব্দ

আইজেনভেক্টর

ম্যাট্রিক্স S_W⁻¹S_B-এর আইজেনভেক্টর যা ক্লাসগুলির বিভাজ্যতা সর্বাধিক করার জন্য সর্বোত্তম প্রজেকশন দিকনির্দেশ উপস্থাপন করে, তাদের সংশ্লিষ্ট আইজেনভ্যালু অনুসারে সাজানো হয়।

📖
শব্দ

স্ক্যাটার রেশিও

ইন্টার-ক্লাস এবং ইন্ট্রা-ক্লাস বিচ্ছুরণের মধ্যে অনুপাত যা এলডিএ-তে অপ্টিমাইজেশন মানদণ্ড হিসেবে কাজ করে, যেখানে উচ্চ অনুপাত শ্রেণিগুলোর আরও ভাল পৃথকীকরণ নির্দেশ করে।

📖
শব্দ

মাল্টিক্লাস এলডিএ

বাইনারি এলডিএ-এর কে-শ্রেণীর ক্ষেত্রে সাধারণীকরণ, যা সমস্ত শ্রেণী জোড়ার মধ্যে একসাথে সর্বাধিক পৃথকীকরণের জন্য সর্বাধিক কে-১টি বৈষম্যমূলক অক্ষ উৎপন্ন করে।

🔍

কোন ফলাফল পাওয়া যায়নি