🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Feature Selection

Processus de sélection automatique des caractéristiques les plus pertinentes pour un modèle supervisé en éliminant les variables redondantes ou non informatives afin d'améliorer la performance et réduire la complexité.

📖
termes

Label Encoding

Transformation des variables catégorielles en valeurs numériques entières où chaque catégorie unique reçoit un identifiant numérique distinct, adapté pour les algorithmes nécessitant des entrées numériques.

📖
termes

Feature Scaling

Normalisation ou standardisation des caractéristiques numériques pour les ramener dans une plage comparable, essentielle pour les algorithmes sensibles à l'échelle des variables comme les SVM et les réseaux de neurones.

📖
termes

Polynomial Features

Génération de nouvelles caractéristiques par création de combinaisons polynomiales des variables existantes, permettant de capturer des relations non-linéaires entre les features et la variable cible.

📖
termes

Interaction Features

Création de nouvelles variables représentant les interactions entre caractéristiques existantes, typiquement par multiplication ou combinaison, pour révéler des effets synergiques dans les données supervisées.

📖
termes

Recursive Feature Elimination

Algorithme de sélection itérative qui construit un modèle, élimine les caractéristiques les moins importantes selon un critère spécifique, et répète ce processus jusqu'à atteindre le nombre optimal de features.

📖
termes

Target Encoding

Technique de transformation des variables catégorielles en utilisant des statistiques de la variable cible (moyenne, médiane) pour chaque catégorie, capturant ainsi directement la relation avec la prédiction.

📖
termes

Feature Importance

Mesure quantitative de l'impact de chaque caractéristique sur les prédictions du modèle supervisé, calculée par des méthodes comme permutation importance, SHAP values ou les coefficients du modèle.

📖
termes

Principal Component Analysis

Technique de réduction dimensionnelle linéaire qui transforme les caractéristiques en composantes orthogonales non corrélées, maximisant la variance expliquée avec un nombre réduit de dimensions.

📖
termes

Binning/Discretization

Processus de conversion de variables continues en catégories discrètes (bins) pour simplifier les relations, gérer les valeurs aberrantes et améliorer la performance de certains algorithmes supervisés.

📖
termes

Feature Hashing

Technique de dimensionnalité réduite qui applique une fonction de hashage aux caractéristiques pour les mapper dans un espace de dimension fixe, utile pour les données haute-dimensionalité avec beaucoup de catégories.

📖
termes

Missing Value Imputation

Ensemble de stratégies statistiques ou algorithmiques pour remplacer les valeurs manquantes dans les caractéristiques par des estimations appropriées, essentiel pour maintenir l'intégrité des données supervisées.

📖
termes

Feature Crosses

Combinaison de caractéristiques pour créer de nouvelles features représentant des interactions spécifiques, particulièrement efficace dans les modèles linéaires pour capturer des relations non-additives.

📖
termes

Feature Engineering Pipeline

Séquence automatisée et reproductible de transformations appliquées aux caractéristiques, intégrant nettoyage, création, sélection et scaling pour garantir la cohérence entre entraînement et prédiction.

📖
termes

Domain-Specific Feature Creation

Développement de caractéristiques basées sur l'expertise métier et la connaissance du domaine, créant des variables informatives qui capturent des patterns spécifiques non évidents dans les données brutes.

📖
termes

Temporal Feature Engineering

Création de caractéristiques spécifiques aux données temporelles comme les lag features, rolling statistics, composantes temporelles et tendances saisonnières pour améliorer les prédictions supervisées chronologiques.

🔍

Aucun résultat trouvé