Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
LIME Visualization
Représentation graphique des explications générées par LIME (Local Interpretable Model-agnostic Explanations) pour une prédiction spécifique. Cette visualisation met en évidence les caractéristiques locales qui influencent une décision individuelle du modèle.
Decision Boundary Plot
Visualisation en 2D ou 3D montrant les frontières de décision d'un modèle de classification dans l'espace des caractéristiques. Ce graphique illustre comment le modèle sépare les différentes classes dans l'espace de prédiction.
Confusion Matrix Heatmap
Représentation visuelle colorée de la matrice de confusion montrant les performances de classification d'un modèle. Cette heatmap facilite l'identification rapide des types d'erreurs de classification les plus fréquentes.
ROC Curve Visualization
Graphique représentant la courbe ROC (Receiver Operating Characteristic) illustrant le compromis entre le taux de vrais positifs et le taux de faux positifs. Cette visualisation permet d'évaluer la performance discriminante du modèle à différents seuils.
Learning Curve Plot
Graphique montrant l'évolution des performances du modèle en fonction de la taille du jeu d'entraînement. Cette visualisation aide à diagnostiquer les problèmes de surapprentissage ou de sous-apprentissage du modèle.
Validation Curve Plot
Représentation graphique des performances du modèle en fonction de la variation d'un hyperparamètre spécifique. Ce graphique permet d'identifier la valeur optimale des hyperparamètres et de comprendre leur impact sur le biais et la variance.
Residual Plot
Visualisation des résidus (erreurs de prédiction) par rapport aux valeurs prédites ou aux caractéristiques d'entrée. Ce graphique aide à vérifier les hypothèses du modèle et à identifier des patterns systématiques dans les erreurs.
Model Calibration Plot
Diagramme de fiabilité comparant les probabilités prédites par le modèle aux fréquences empiriques observées. Cette visualisation évalue si les prédictions probabilistes du modèle sont bien calibrées.
Tree Visualization
Représentation graphique de la structure d'un arbre de décision montrant les nœuds de décision, les critères de division et les feuilles terminales. Cette visualisation permet de comprendre explicitement le processus de décision du modèle.
Embedding Projection
Visualisation en 2D ou 3D d'embeddings de haute dimension réduits par des techniques comme t-SNE ou UMAP. Ce graphique révèle la structure et les clusters dans les données représentations apprises par le modèle.
Feature Distribution Plot
Graphique montrant la distribution des caractéristiques d'entrée, souvent comparé entre différents groupes ou classes. Cette visualisation aide à comprendre le profil des données et les biais potentiels.
Model Coefficient Plot
Visualisation des coefficients d'un modèle linéaire avec leurs intervalles de confiance. Ce graphique permet d'évaluer l'importance et la direction de l'influence de chaque caractéristique dans les modèles linéaires.
Prediction Explanation Dashboard
Interface interactive combinant plusieurs visualisations pour expliquer une prédiction spécifique. Ce dashboard intègre diverses techniques d'interprétation pour fournir une vue d'ensemble complète de la décision du modèle.
Feature Correlation Heatmap
Matrice de corrélation visualisée sous forme de heatmap montrant les relations linéaires entre les caractéristiques. Cette visualisation aide à identifier la multicollinéarité et les dépendances entre variables.
Model Performance Radar Chart
Graphique en radar comparant plusieurs métriques de performance du modèle sur différents axes. Cette visualisation permet d'évaluer rapidement les forces et faiblesses du modèle selon différentes dimensions.