Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Feature Importance Globale
Méthode d'interprétation qui évalue l'impact moyen de chaque variable prédictive sur l'ensemble du modèle, permettant de hiérarchiser les features selon leur contribution globale aux prédictions.
SHAP Values Globaux
Approche basée sur la théorie des jeux qui quantifie la contribution moyenne de chaque caractéristique aux prédictions du modèle sur l'ensemble du dataset, garantissant une cohérence mathématique et des propriétés d'additivité.
Partial Dependence Plot (PDP)
Visualisation qui montre l'effet marginal moyen d'une ou deux variables sur la prédiction du modèle, en marginalisant l'effet des autres variables pour révéler les relations globales.
Accumulated Local Effects (ALE)
Technique d'interprétation qui calcule l'effet moyen des features sur les prédictions locales, évitant les biais de corrélation présents dans les PDP et fournissant des estimations plus fiables des effets globaux.
Global Surrogate Models
Modèles interprétables (comme les arbres de décision ou la régression linéaire) entraînés pour imiter le comportement global d'un modèle boîte noire complexe, offrant une approximation simplifiée mais compréhensible.
Permutation Feature Importance
Méthode agnostique qui évalue l'importance des variables en mesurant la dégradation des performances du modèle lorsque les valeurs d'une feature sont aléatoirement permutées, révélation leur contribution globale.
Model-Agnostic Methods
Approches d'interprétation qui fonctionnent avec n'importe quel type de modèle d'apprentissage automatique sans nécessiter d'accès à la structure interne, se basant uniquement sur les entrées-sorties pour analyser le comportement global.
Global Feature Effects
Analyse complète de l'impact de chaque variable sur les prédictions du modèle à travers tout l'espace des données, combinant direction, magnitude et forme de l'effet pour une compréhension holistique.
ICE Curves (Individual Conditional Expectation)
Visualisation qui trace les prédictions individuelles du modèle pour différentes valeurs d'une feature, permettant d'observer l'hétérogénéité des effets et d'agréger ces informations pour une compréhension globale.
Friedman's H-statistic
Mesure quantitative qui évalue la force des interactions entre variables dans les modèles de machine learning, permettant d'identifier les dépendances non-linéaires qui affectent globalement les prédictions.
Global Model Visualization
Ensemble de techniques graphiques et visuelles permettant de représenter synthétiquement le comportement global d'un modèle, incluant les relations entre features, les patterns de décision et les zones de certitude.
Global Feature Contribution
Quantification de la contribution moyenne de chaque caractéristique à la différence entre les prédictions du modèle et une baseline de référence, révélant l'influence globale des variables sur les décisions.
Model-Specific Global Interpretation
Méthodes d'interprétation conçues spécifiquement pour certains types de modèles (comme les poids dans les réseaux de neurones ou les règles dans les arbres de décision) pour expliquer leur comportement global.
Global Sensitivity Analysis
Étude systématique de la variation des sorties du modèle en fonction des variations de ses entrées sur l'ensemble du domaine d'entrée, identifiant les facteurs les plus influents sur le comportement global.
Global Rule Extraction
Processus qui génère un ensemble de règles interprétables qui capturent le comportement global d'un modèle complexe, transformant les prédictions automatiques en connaissances explicites et généralisables.