Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Feature Selection
Processus de sélection automatique des caractéristiques les plus pertinentes pour un modèle supervisé en éliminant les variables redondantes ou non informatives afin d'améliorer la performance et réduire la complexité.
Label Encoding
Transformation des variables catégorielles en valeurs numériques entières où chaque catégorie unique reçoit un identifiant numérique distinct, adapté pour les algorithmes nécessitant des entrées numériques.
Feature Scaling
Normalisation ou standardisation des caractéristiques numériques pour les ramener dans une plage comparable, essentielle pour les algorithmes sensibles à l'échelle des variables comme les SVM et les réseaux de neurones.
Polynomial Features
Génération de nouvelles caractéristiques par création de combinaisons polynomiales des variables existantes, permettant de capturer des relations non-linéaires entre les features et la variable cible.
Interaction Features
Création de nouvelles variables représentant les interactions entre caractéristiques existantes, typiquement par multiplication ou combinaison, pour révéler des effets synergiques dans les données supervisées.
Recursive Feature Elimination
Algorithme de sélection itérative qui construit un modèle, élimine les caractéristiques les moins importantes selon un critère spécifique, et répète ce processus jusqu'à atteindre le nombre optimal de features.
Target Encoding
Technique de transformation des variables catégorielles en utilisant des statistiques de la variable cible (moyenne, médiane) pour chaque catégorie, capturant ainsi directement la relation avec la prédiction.
Feature Importance
Mesure quantitative de l'impact de chaque caractéristique sur les prédictions du modèle supervisé, calculée par des méthodes comme permutation importance, SHAP values ou les coefficients du modèle.
Principal Component Analysis
Technique de réduction dimensionnelle linéaire qui transforme les caractéristiques en composantes orthogonales non corrélées, maximisant la variance expliquée avec un nombre réduit de dimensions.
Binning/Discretization
Processus de conversion de variables continues en catégories discrètes (bins) pour simplifier les relations, gérer les valeurs aberrantes et améliorer la performance de certains algorithmes supervisés.
Feature Hashing
Technique de dimensionnalité réduite qui applique une fonction de hashage aux caractéristiques pour les mapper dans un espace de dimension fixe, utile pour les données haute-dimensionalité avec beaucoup de catégories.
Missing Value Imputation
Ensemble de stratégies statistiques ou algorithmiques pour remplacer les valeurs manquantes dans les caractéristiques par des estimations appropriées, essentiel pour maintenir l'intégrité des données supervisées.
Feature Crosses
Combinaison de caractéristiques pour créer de nouvelles features représentant des interactions spécifiques, particulièrement efficace dans les modèles linéaires pour capturer des relations non-additives.
Feature Engineering Pipeline
Séquence automatisée et reproductible de transformations appliquées aux caractéristiques, intégrant nettoyage, création, sélection et scaling pour garantir la cohérence entre entraînement et prédiction.
Domain-Specific Feature Creation
Développement de caractéristiques basées sur l'expertise métier et la connaissance du domaine, créant des variables informatives qui capturent des patterns spécifiques non évidents dans les données brutes.
Temporal Feature Engineering
Création de caractéristiques spécifiques aux données temporelles comme les lag features, rolling statistics, composantes temporelles et tendances saisonnières pour améliorer les prédictions supervisées chronologiques.