Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Hyperplan optimal
Frontière de décision dans un espace de grande dimension qui maximise la distance entre les classes les plus proches, garantissant ainsi la meilleure séparation possible des données.
Vecteur de support
Points d'entraînement situés sur les marges qui définissent l'hyperplan optimal, ces points critiques déterminent la position et l'orientation de la frontière de décision.
Marge maximale
Distance entre l'hyperplan de décision et les points d'entraînement les plus proches de chaque classe, que l'algorithme SVM cherche à maximiser pour améliorer la généralisation.
Fonction noyau
Fonction mathématique qui transforme implicitement les données dans un espace de plus grande dimension sans effectuer la transformation explicite, permettant la séparation linéaire de données non-linéaires.
SVM linéaire
Variante des SVM qui utilise un hyperplan linéaire pour séparer les classes, particulièrement efficace lorsque les données sont linéairement séparables dans leur espace d'origine.
SVM non-linéaire
Extension des SVM qui utilise des fonctions noyau pour projeter les données dans un espace de dimension supérieure où elles deviennent linéairement séparables.
Variable d'écart
Variables d'assouplissement qui permettent à certains points de violer les contraintes de marge, rendant le modèle plus robuste face aux données bruitées ou non-séparables.
Hyperparamètre C
Paramètre de régularisation qui contrôle le compromis entre la maximisation de la marge et la minimisation des erreurs de classification, déterminant la pénalité pour les violations de marge.
SVM à une classe
Variante des SVM utilisée pour la détection d'anomalies où l'algorithme apprend une frontière autour des données normales pour identifier les observations atypiques.
SVR (Support Vector Regression)
Adaptation des SVM pour les problèmes de régression qui cherche à trouver une fonction s'écartant au plus d'une valeur epsilon des cibles tout en étant aussi plate que possible.
Formulation duale
Représentation mathématique alternative du problème d'optimisation SVM qui ne dépend que des produits scalaires entre les observations, facilitant l'utilisation des fonctions noyau.
Espace de caractéristiques
Espace transformé de grande dimension où les données peuvent être séparées linéairement, obtenu par l'application de la fonction noyau aux données d'origine.
Multi-classe SVM
Extension des SVM binaires pour gérer les problèmes de classification multi-classes, généralement implémentée par des stratégies un-contre-un ou un-contre-tous.
Noyau RBF
Fonction noyau à base de fonction radiale gaussienne qui mappe les données dans un espace de dimension infinie, l'une des fonctions noyau les plus populaires pour les SVM non-linéaires.
SMO (Sequential Minimal Optimization)
Algorithme d'optimisation efficace pour résoudre le problème dual des SVM en optimisant itérativement les multiplicateurs de Lagrange par paires, réduisant la complexité computationnelle.
Noyau polynomial
Fonction noyau qui calcule le produit scalaire des vecteurs dans un espace de caractéristiques polynomial, permettant de capturer les relations non-linéaires d'ordre supérieur.
Marge souple
Extension des SVM qui autorise certaines violations des contraintes de marge via des variables d'écart, rendant le modèle plus flexible face aux données bruitées ou chevauchantes.
Gamma (γ)
Hyperparamètre des fonctions noyau RBF et polynomial qui contrôle l'influence d'un seul exemple d'entraînement, déterminant la flexibilité de la frontière de décision.