قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
PCA Kernelisée
Extension de l'Analyse en Composantes Principales utilisant des fonctions noyau pour capturer des structures non-linéaires dans les données. Cette technique projette implicitement les données dans un espace de dimension supérieure où elles deviennent linéairement séparables.
Espace de Reproduction à Noyau Hilbert
Espace fonctionnel complet de fonctions où le produit scalaire peut être calculé en utilisant uniquement les évaluations des fonctions en certains points via la fonction noyau. Cet espace mathématique fournit le cadre théorique pour les méthodes à noyau en apprentissage automatique.
Trick du Noyau
Technique algorithmique permettant d'opérer dans un espace de caractéristiques de grande dimension sans calculer explicitement les coordonnées des données dans cet espace. Elle remplace les produits scalaires par des évaluations de fonctions noyau, réduisant ainsi la complexité computationnelle.
Valeurs Propres Noyautées
Valeurs propres de la matrice de Gram centralisée qui représentent la variance expliquée par chaque composante principale dans l'espace des features implicite. Elles servent à déterminer l'importance relative des axes principaux dans la kPCA.
Vecteurs Propres Noyautés
Vecteurs propres de la matrice de Gram qui définissent les directions principales dans l'espace de caractéristiques de grande dimension. Ils sont exprimés comme combinaisons linéaires des données originales pondérées par les coefficients du noyau.
Centralisation dans l'Espace des Features
Processus de soustraction de la moyenne dans l'espace de caractéristiques implicite, réalisé en ajustant la matrice de Gram plutôt que les données directement. Cette étape est cruciale pour garantir que la kPCA analyse correctement la variance autour du centre de masse.
Sélection de Paramètres de Noyau
Processus d'optimisation des hyperparamètres de la fonction noyau (gamma pour RBF, degré pour polynomial) pour maximiser la performance de la kPCA. Cette sélection influence la complexité et la nature des relations non-linéaires capturées.
Reconstruction dans l'Espace Original
Opération inverse de la projection kPCA qui tente de retrouver les données originales à partir des composantes principales dans l'espace implicite. Cette reconstruction est approximative et dépend de la capacité du noyau à préserver l'information pertinente.
kPCA vs PCA Classique
Comparaison entre l'ACP traditionnelle (linéaire) et sa version kernelisée (non-linéaire) en termes de capacité à capturer différentes structures de données. La kPCA surpasse la PCA lorsque les relations entre variables présentent des non-linéarités complexes.
Nombre de Composantes à Conserver
Détermination du nombre optimal de composantes principales en kPCA basée sur la variance expliquée cumulée ou des critères de reconstruction. Ce choix influence la capacité de réduction de dimensionnalité tout en préservant l'information structurelle pertinente.