Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Graphique de dépendance partielle
Visualisation qui montre la relation marginale entre une ou deux caractéristiques et la prédite du modèle, en moyennant les effets de toutes les autres caractéristiques pour révéler les tendances sous-jacentes. Cette technique aide à comprendre comment les changements dans des variables spécifiques affectent les prédictions globales du modèle.
Carte de chaleur des caractéristiques
Représentation graphique bidimensionnelle utilisant des couleurs pour visualiser l'importance ou l'influence des différentes caractéristiques sur les prédictions du modèle. Les intensités de couleur indiquent le degré d'impact, permettant une identification rapide des variables les plus influentes.
Diagramme de SHAP
Visualisation basée sur les valeurs SHAP (SHapley Additive exPlanations) qui montre comment chaque caractéristique contribue à déplacer la prédiction de la valeur de base vers la prédiction finale. Ces graphiques permettent d'interpréter individuellement chaque prédiction en quantifiant l'impact positif ou négatif de chaque variable.
Graphique ICE (Individual Conditional Expectation)
Visualisation qui trace les prédictions du modèle pour des instances individuelles tout en faisant varier une caractéristique spécifique, révélant les hétérogénéités dans les relations entre variables. Contrairement aux graphiques PDP qui montrent les effets moyens, les graphiques ICE montrent les variations au niveau individuel.
Carte de décision de LIME
Visualisation générée par LIME (Local Interpretable Model-agnostic Explanations) qui explique les prédictions individuelles en créant un modèle localement interprétable et en visualisant les caractéristiques importantes. Cette technique permet de comprendre pourquoi un modèle prend une décision spécifique pour un cas particulier.
Visualisation de permutation d'importance
Graphique à barres représentant l'importance des caractéristiques calculée en mesurant la diminution de performance du modèle lorsque les valeurs d'une caractéristique sont aléatoirement permutées. Cette méthode fournit une évaluation model-agnostic de l'importance des variables basée sur leur impact réel sur les prédictions.
Courbe ROC et AUC
Graphique représentant le taux de vrais positifs en fonction du taux de faux positifs pour différents seuils de classification, avec l'AUC (Area Under Curve) quantifiant la performance globale du classificateur. Cette visualisation permet d'évaluer et comparer la capacité discriminante des modèles indépendamment du seuil choisi.
Diagramme de cascade
Visualisation séquentielle montrant comment les contributions de différentes caractéristiques s'accumulent pour atteindre la prédiction finale du modèle, similaire à un diagramme de waterfall financier. Chaque barre représente l'impact positif ou négatif d'une caractéristique sur la prédiction finale.
Graphique de force local
Représentation visuelle montrant comment chaque caractéristique pousse la prédiction d'un modèle vers une valeur plus élevée ou plus basque par rapport à la valeur de base attendue. Les forces sont représentées par des flèches ou des barres colorées indiquant la direction et l'amplitude de l'influence.
Visualisation de décision réglable
Interface interactive permettant d'ajuster dynamiquement les valeurs des caractéristiques d'entrée et d'observer en temps réel comment ces changements affectent les prédictions du modèle. Ces outils facilitent l'exploration des relations complexes et l'analyse de sensibilité des modèles.
Carte de décision d'ancrage
Visualisation basée sur les explications par ancres (Anchors) qui identifie les conditions suffisantes pour qu'un modèle maintienne sa prédiction, présentées sous forme de règles if-then. Ces cartes aident à comprendre les régions de décision locales en montrant les caractéristiques critiques qui ancrent une prédiction.
Diagramme de dépendance
Graphique bidimensionnel ou tridimensionnel illustrant les relations et dépendances entre les caractéristiques d'entrée et les prédictions du modèle, souvent combiné avec des densités de points. Ces diagrammes révèlent les interactions non linéaires et les corrélations complexes dans les données.
Graphique de contour de décision
Visualisation en deux ou trois dimensions montrant les frontières de décision d'un modèle de classification à travers des lignes ou surfaces de contour colorées. Ces graphiques permettent de comprendre comment le modèle partitionne l'espace des caractéristiques pour effectuer ses classifications.
Visualisation de contre-factuel
Représentation graphique montrant les modifications minimales nécessaires aux caractéristiques d'entrée pour changer la prédiction du modèle vers une issue souhaitée différente. Ces visualisations aident à comprendre les conditions limites et à explorer des scénarios hypothétiques.
Arbre de régression
Variante de l'arbre de décision spécialisée dans les problèmes de régression, visualisant comment le modèle partitionne l'espace des caractéristiques en régions avec des valeurs cibles constantes. Chaque feuille représente la moyenne des valeurs cibles dans cette région, facilitant l'interprétation des relations non linéaires.
Diagramme de flux de décision
Représentation schématique du processus de décision séquentiel d'un modèle, montrant les points de décision, les actions possibles et les résultats attendus sous forme de flux logique. Ces diagrammes transforment les algorithmes complexes en processus compréhensibles étape par étape.
Carte de sensibilité
Visualisation en grille ou en surface montrant comment les prédictions du modèle varient systématiquement lorsque deux caractéristiques sont modifiées simultanément. Ces cartes révèlent les interactions entre variables et identifient les régions de haute sensibilité dans l'espace des caractéristiques.
Visualisation d'importance globale
Graphique synthétique présentant le classement des caractéristiques par ordre d'importance pour l'ensemble du modèle, souvent sous forme de barres horizontales avec des scores normalisés. Cette vue d'ensemble permet d'identifier rapidement les facteurs les plus influents dans les prédictions globales du modèle.