Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
SHAP (SHapley Additive exPlanations) Summary Plot
Une visualisation qui combine l'importance des caractéristiques avec leurs effets, montrant chaque point de données comme un point sur un graphique d'impact de caractéristique.
LIME (Local Interpretable Model-agnostic Explanations) Visualization
Une représentation graphique qui montre les caractéristiques locales les plus influentes pour une prédiction spécifique, en expliquant le modèle par un surrogate simple et interprétable.
Anchors Visualization
Une représentation graphique des règles de décision à haute fidélité (ancres) qui expliquent localement la prédiction d'un modèle, en identifiant les conditions suffisantes pour une prédiction donnée.
Counterfactual Explanation Visualization
Un graphique qui montre les modifications minimales nécessaires sur les caractéristiques d'une observation pour changer sa prédiction, illustrant la frontière de décision du modèle.
Morris Sensitivity Plot
Une visualisation issue de la méthode de Morris qui évalue l'effet élémentaire de chaque paramètre d'entrée sur la sortie du modèle, classant les paramètres par influence globale et non-linéarité.
Sobol Index Visualization
Un graphique représentant les indices de Sobol, qui décomposent la variance de la sortie du modèle en contributions dues à chaque caractéristique ou à leurs interactions.
What-If Analysis Dashboard
Un outil interactif qui permet de manipuler manuellement les valeurs des caractéristiques d'une observation pour observer en temps réel l'impact sur la prédiction du modèle.
Surrogate Model Visualization
La représentation graphique d'un modèle simple et interprétable (comme un arbre de décision ou une régression linéaire) entraîné pour imiter le comportement d'un modèle complexe (boîte noire).