এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
Linear Discriminant Analysis (LDA)
Méthode statistique de réduction dimensionnelle supervisée qui projette les données dans un espace de dimension inférieure en maximisant la séparabilité entre les classes préalablement définies.
Fisher's Linear Discriminant
Formulation originale de la LDA proposée par Ronald Fisher en 1936, visant à trouver la projection linéaire qui maximise le rapport entre la variance inter-classe et la variance intra-classe.
Between-class Scatter Matrix
Matrice S_B mesurant la dispersion des centroides de classes autour du centroïde global, quantifiant la séparation entre différentes classes dans l'espace de caractéristiques.
Within-class Scatter Matrix
Matrice S_W représentant la dispersion des échantillons autour de leurs centroides de classe respectifs, mesurant la cohésion intra-classe des données.
Eigenvalue Decomposition
Processus mathématique consistant à décomposer la matrice S_W⁻¹S_B pour extraire les vecteurs propres qui définissent les axes discriminants optimaux en LDA.
Discriminant Function
Fonction mathématique linéaire f(x) = w^T x + b où w est le vecteur discriminant, utilisée pour projeter les données et prendre des décisions de classification.
Class Centroids
Points représentatifs moyens de chaque classe calculés comme la moyenne des vecteurs de caractéristiques de tous les échantillons appartenant à cette classe spécifique.
Covariance Matrix
Matrice carrée Σ contenant les covariances entre toutes les paires de variables, essentielle pour caractériser la structure de dispersion intra-classe en LDA.
প্রজেকশন ম্যাট্রিক্স
নির্বাচিত আইজেনভেক্টরগুলির কলাম হিসাবে গঠিত ম্যাট্রিক্স W, যা d-মাত্রিক ডেটাকে হ্রাসকৃত মাত্রার সাবস্পেসে রূপান্তর করতে ব্যবহৃত হয়।
সুপারভাইজড ডাইমেনশনালিটি রিডাকশন
ক্লাস লেবেল ব্যবহার করে রূপান্তরকে নির্দেশিত করার জন্য ডাইমেনশনালিটি রিডাকশনের একটি পদ্ধতি, যা PCA-এর মতো আনসুপারভাইজড পদ্ধতির বিপরীত যেখানে এই তথ্য উপেক্ষা করা হয়।
ক্লাস সেপারেবিলিটি
প্রজেক্টেড স্পেসে বিভিন্ন ক্লাসের মধ্যে পার্থক্যের পরিমাণগত পরিমাপ, যা LDA-তে রেলিঘ ভাগফল অপ্টিমাইজেশনের মাধ্যমে সর্বাধিক করা হয়।
রেলিঘ ভাগফল
অনুপাত J(w) = (w^T S_B w)/(w^T S_W w) যা LDA-তে অপ্টিমাইজ করা হয় ইন্ট্রা-ক্লাস বিচ্ছুরণের সাপেক্ষে ইন্টার-ক্লাস বিভাজ্যতা সর্বাধিক করার জন্য প্রজেকশন দিকনির্দেশ খুঁজে পেতে।
ক্যানোনিকাল ডিসক্রিমিন্যান্ট অ্যানালাইসিস
LDA-এর মাল্টিভেরিয়েট এক্সটেনশন যা ক্যানোনিকাল লিনিয়ার কম্বিনেশন খুঁজে পায় যা গ্রুপগুলিকে সবচেয়ে ভালোভাবে আলাদা করে, মাল্টিভেরিয়েট কনটেক্সটে ডিসক্রিমিন্যান্ট অ্যানালাইসিসের সমতুল্য।
লিনিয়ার ক্লাসিফায়ার
LDA দ্বারা ট্রান্সফর্মড স্পেসে লিনিয়ার ডিসিশন বাউন্ডারি ব্যবহার করে ক্লাসিফিকেশন মডেল, যেখানে ক্লাসগুলি হাইপারপ্লেন দ্বারা পৃথক করা হয়।
ডিসিশন বাউন্ডারি
ডিসক্রিমিন্যান্ট স্পেসে ক্লাসগুলিকে পৃথককারী হাইপারপ্লেন, গাণিতিকভাবে সেই বিন্দুগুলির সেট দ্বারা সংজ্ঞায়িত করা হয় যেখানে সন্নিহিত ক্লাসগুলির ডিসক্রিমিন্যান্ট ফাংশন সমান হয়।
আইজেনভেক্টর
ম্যাট্রিক্স S_W⁻¹S_B-এর আইজেনভেক্টর যা ক্লাসগুলির বিভাজ্যতা সর্বাধিক করার জন্য সর্বোত্তম প্রজেকশন দিকনির্দেশ উপস্থাপন করে, তাদের সংশ্লিষ্ট আইজেনভ্যালু অনুসারে সাজানো হয়।
স্ক্যাটার রেশিও
ইন্টার-ক্লাস এবং ইন্ট্রা-ক্লাস বিচ্ছুরণের মধ্যে অনুপাত যা এলডিএ-তে অপ্টিমাইজেশন মানদণ্ড হিসেবে কাজ করে, যেখানে উচ্চ অনুপাত শ্রেণিগুলোর আরও ভাল পৃথকীকরণ নির্দেশ করে।
মাল্টিক্লাস এলডিএ
বাইনারি এলডিএ-এর কে-শ্রেণীর ক্ষেত্রে সাধারণীকরণ, যা সমস্ত শ্রেণী জোড়ার মধ্যে একসাথে সর্বাধিক পৃথকীকরণের জন্য সর্বাধিক কে-১টি বৈষম্যমূলক অক্ষ উৎপন্ন করে।