Глоссарий ИИ
Полный словарь искусственного интеллекта
Régression Polynomiale
Technique de régression non linéaire qui modélise la relation entre variables en utilisant une fonction polynomiale de degré supérieur à un. Elle permet de capturer des relations complexes tout en restant dans le cadre linéaire pour les coefficients.
Matrice de Vandermonde
Structure matricielle utilisée en régression polynomiale où chaque colonne représente une puissance croissante de la variable indépendante. Elle transforme le problème non linéaire en un problème linéaire dans les coefficients.
Degré du Polynôme
Paramètre déterminant la complexité du modèle polynomial, correspondant à l'exposant le plus élevé dans l'équation. Un degré élevé augmente la flexibilité mais risque le surapprentissage.
Surapprentissage Polynomial
Phénomène où un polynôme de degré trop élevé s'adapte excessivement aux données d'entraînement, capturant le bruit plutôt que la tendance sous-jacente. Il se manifeste par une excellente performance en entraînement mais une mauvaise généralisation.
Régularisation Ridge
Méthode de pénalisation L2 appliquée aux coefficients polynomiaux pour contrôler leur amplitude et prévenir le surapprentissage. Elle ajoute un terme de pénalité proportionnel au carré des coefficients à la fonction de coût.
Régularisation Lasso
Technique de pénalisation L1 qui force certains coefficients polynomiaux vers zéro, effectuant ainsi une sélection automatique de variables. Elle est particulièrement utile pour éliminer les termes de polynôme non pertinents.
Terme d'Interaction
Produit de variables prédictives dans un modèle polynomial capturant les effets synergiques entre caractéristiques. Ces termes permettent de modéliser des relations où l'effet d'une variable dépend du niveau d'une autre.
Validation Croisée K-fold
Technique d'évaluation robuste divisant les données en K sous-ensembles pour estimer la performance du modèle polynomial sur différentes partitions. Elle permet de sélectionner le degré optimal en minimisant l'erreur de validation.
Полиномиальная мультиколлинеарность
Высокая корреляция между полиномиальными членами, производными от одной и той же переменной, что особенно проблематично для полиномов высокой степени. Она может дестабилизировать оценку коэффициентов и часто требует стандартизации.
Ортогональные полиномы
Семейство полиномов (Лежандра, Чебышёва), члены которых математически ортогональны на определённом интервале. Они снижают мультиколлинеарность и улучшают численную стабильность регрессии.
Полиномиальное преобразование
Процесс создания новых признаков путём возведения существующих переменных в разные степени и генерации членов взаимодействия. Оно преобразует признаковое пространство для фиксации нелинейных связей.
Полиномиальная кривая обучения
График, показывающий изменение ошибок обучения и валидации в зависимости от размера выборки для разных полиномиальных степеней. Она помогает диагностировать переобучение или недообучение.
Метод взвешенных наименьших квадратов
Вариант регрессии наименьших квадратов, где каждое наблюдение получает вес на основе его надёжности или дисперсии. Он особенно подходит, когда в полиномиальных данных присутствует гетероскедастичность.
Масштабирование признаков для полиномов
Стандартизация или нормализация переменных перед полиномиальным преобразованием для предотвращения числовых нестабильностей. Она предотвращает проблемы масштаба между разными степенями полинома.