🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Linear Discriminant Analysis (LDA)

Méthode statistique de réduction dimensionnelle supervisée qui projette les données dans un espace de dimension inférieure en maximisant la séparabilité entre les classes préalablement définies.

📖
용어

Fisher's Linear Discriminant

Formulation originale de la LDA proposée par Ronald Fisher en 1936, visant à trouver la projection linéaire qui maximise le rapport entre la variance inter-classe et la variance intra-classe.

📖
용어

Between-class Scatter Matrix

Matrice S_B mesurant la dispersion des centroides de classes autour du centroïde global, quantifiant la séparation entre différentes classes dans l'espace de caractéristiques.

📖
용어

Within-class Scatter Matrix

Matrice S_W représentant la dispersion des échantillons autour de leurs centroides de classe respectifs, mesurant la cohésion intra-classe des données.

📖
용어

Eigenvalue Decomposition

Processus mathématique consistant à décomposer la matrice S_W⁻¹S_B pour extraire les vecteurs propres qui définissent les axes discriminants optimaux en LDA.

📖
용어

Discriminant Function

Fonction mathématique linéaire f(x) = w^T x + b où w est le vecteur discriminant, utilisée pour projeter les données et prendre des décisions de classification.

📖
용어

Class Centroids

Points représentatifs moyens de chaque classe calculés comme la moyenne des vecteurs de caractéristiques de tous les échantillons appartenant à cette classe spécifique.

📖
용어

Covariance Matrix

Matrice carrée Σ contenant les covariances entre toutes les paires de variables, essentielle pour caractériser la structure de dispersion intra-classe en LDA.

📖
용어

Projection Matrix

Matrice W composée des vecteurs propres sélectionnés comme colonnes, utilisée pour transformer les données de dimension d vers un sous-espace de dimension réduite.

📖
용어

Supervised Dimensionality Reduction

Approche de réduction dimensionnelle utilisant les étiquettes de classe pour guider la transformation, contrairement aux méthodes non supervisées comme PCA qui ignorent cette information.

📖
용어

Class Separability

Mesure quantitative de la distinction entre différentes classes dans l'espace projeté, maximisée par la LDA à travers l'optimisation du quotient de Rayleigh.

📖
용어

Rayleigh Quotient

Rapport J(w) = (w^T S_B w)/(w^T S_W w) optimisé en LDA pour trouver les directions de projection maximisant la séparabilité inter-classe relative à la dispersion intra-classe.

📖
용어

Canonical Discriminant Analysis

Extension multivariée de la LDA trouvant des combinaisons linéaires canoniques qui séparent le mieux les groupes, équivalente à l'analyse discriminante dans le contexte multivarié.

📖
용어

Linear Classifier

Modèle de classification utilisant des frontières de décision linéaires dans l'espace transformé par la LDA, où les classes sont séparées par des hyperplans.

📖
용어

Decision Boundary

Hyperplan séparant les classes dans l'espace discriminant, défini mathématiquement par l'ensemble des points où les fonctions discriminantes de classes adjacentes sont égales.

📖
용어

Eigenvectors

Vecteurs propres de la matrice S_W⁻¹S_B représentant les directions optimales de projection qui maximisent la séparabilité des classes, ordonnés par leurs valeurs propres correspondantes.

📖
용어

Scatter Ratio

Ratio entre la dispersion inter-classe et intra-classe servant de critère d'optimisation en LDA, où un ratio élevé indique une meilleure séparabilité des classes.

📖
용어

Multiclass LDA

Généralisation de la LDA binaire au cas de K classes, produisant au plus K-1 axes discriminants pour maximiser la séparation simultanée entre toutes les paires de classes.

🔍

결과를 찾을 수 없습니다