Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Régression Polynomiale
Technique de régression non linéaire qui modélise la relation entre variables en utilisant une fonction polynomiale de degré supérieur à un. Elle permet de capturer des relations complexes tout en restant dans le cadre linéaire pour les coefficients.
Matrice de Vandermonde
Structure matricielle utilisée en régression polynomiale où chaque colonne représente une puissance croissante de la variable indépendante. Elle transforme le problème non linéaire en un problème linéaire dans les coefficients.
Degré du Polynôme
Paramètre déterminant la complexité du modèle polynomial, correspondant à l'exposant le plus élevé dans l'équation. Un degré élevé augmente la flexibilité mais risque le surapprentissage.
Surapprentissage Polynomial
Phénomène où un polynôme de degré trop élevé s'adapte excessivement aux données d'entraînement, capturant le bruit plutôt que la tendance sous-jacente. Il se manifeste par une excellente performance en entraînement mais une mauvaise généralisation.
Régularisation Ridge
Méthode de pénalisation L2 appliquée aux coefficients polynomiaux pour contrôler leur amplitude et prévenir le surapprentissage. Elle ajoute un terme de pénalité proportionnel au carré des coefficients à la fonction de coût.
Régularisation Lasso
Technique de pénalisation L1 qui force certains coefficients polynomiaux vers zéro, effectuant ainsi une sélection automatique de variables. Elle est particulièrement utile pour éliminer les termes de polynôme non pertinents.
Terme d'Interaction
Produit de variables prédictives dans un modèle polynomial capturant les effets synergiques entre caractéristiques. Ces termes permettent de modéliser des relations où l'effet d'une variable dépend du niveau d'une autre.
Validation Croisée K-fold
Technique d'évaluation robuste divisant les données en K sous-ensembles pour estimer la performance du modèle polynomial sur différentes partitions. Elle permet de sélectionner le degré optimal en minimisant l'erreur de validation.
Multicolinéarité Polynomiale
Corrélation élevée entre termes polynomiaux dérivés de la même variable, particulièrement problématique pour les polynômes de haut degré. Elle peut destabiliser l'estimation des coefficients et nécessite souvent une standardisation.
Polynômes Orthogonaux
Famille de polynômes (Legendre, Chebyshev) où les termes sont mathématiquement orthogonaux sur un intervalle spécifique. Ils réduisent la multicolinéarité et améliorent la stabilité numérique de la régression.
Transformation Polynomiale
Processus de création de nouvelles caractéristiques en élevant les variables existantes à différentes puissances et en générant des termes d'interaction. Elle transforme l'espace des caractéristiques pour capturer des relations non linéaires.
Courbe d'Apprentissage Polynomiale
Graphique montrant l'évolution des erreurs d'entraînement et de validation selon la taille de l'échantillon pour différents degrés polynomiaux. Elle aide à diagnostiquer le surapprentissage ou le sous-apprentissage.
Méthode des Moindres Carrés Pondérés
Variante de la régression des moindres carrés où chaque observation reçoit un poids basé sur sa fiabilité ou sa variance. Elle est particulièrement adaptée lorsque l'hétéroscédasticité est présente dans les données polynomiales.
Features Scaling Polynomial
Standardisation ou normalisation des variables avant transformation polynomiale pour éviter les instabilités numériques. Elle prévient les problèmes d'échelle entre les différents degrés du polynôme.