Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Ancres (Anchors)
Une méthode d'explication locale qui fournit des règles décisionnelles simples et suffisantes (ancres) qui garantissent de manière probabiliste la même prédiction pour un voisinage de l'observation, offrant une interprétation plus stable que LIME.
Valeurs de Shapley
Le concept théorique fondamental de SHAP, représentant la contribution marginale moyenne d'une caractéristique à travers toutes les coalitions possibles de caractéristiques dans un modèle, assurant une répartition juste de l'importance.
Explication par Surrogat Local
Une approche qui entraîne un modèle simple et interprétable (comme un arbre de décision ou une régression linéaire) pour approximer le comportement d'un modèle complexe uniquement dans le voisinage restreint d'une prédiction spécifique.
Voisinage de l'Observation
L'espace des données défini autour d'une observation spécifique, utilisé par les méthodes d'interprétation locale pour générer des variations et approximer le comportement du modèle dans cette région restreinte.
Fidélité Locale (Local Fidelity)
Une métrique évaluant la précision avec laquelle une explication locale (comme un modèle surrogate) reproduit les prédictions du modèle original dans le voisinage de l'observation expliquée.
TreeSHAP
Une variante de l'algorithme SHAP optimisée pour les modèles basés sur des arbres de décision, capable de calculer les valeurs de Shapley exactes de manière beaucoup plus rapide en exploitant la structure intrinsèque de ces modèles.
KernelSHAP
Une implémentation de SHAP qui utilise une fonction de pondération (noyau) pour estimer les valeurs de Shapley de manière approximative, la rendant applicable à n'importe quel modèle de manière agnostique mais avec un coût computationnel plus élevé.
DeepSHAP
Une adaptation de SHAP spécifiquement conçue pour les modèles de deep learning, qui combine les valeurs de Shapley avec des techniques de propagation arrière (backpropagation) pour calculer efficacement les attributions de caractéristiques.
Explication Ad-Hoc
Une explication locale générée spécifiquement pour une instance unique, sans prétendre à une généralisation, contrairement aux explications globales qui cherchent à décrire le comportement global du modèle.
Influence de la Caractéristique Locale
La mesure de l'impact d'une caractéristique spécifique sur la prédiction d'une seule observation, quantifiant comment la variation de cette caractéristique modifierait le résultat du modèle pour ce cas précis.
Diagnostique de Prédiction Individuelle
Le processus complet d'analyse d'une prédiction unique en utilisant diverses méthodes locales (LIME, SHAP, contre-factuels) pour comprendre les mécanismes sous-jacents, valider la décision et identifier les biais potentiels.
Stabilité de l'Explication Locale
La propriété d'une méthode d'interprétation locale à produire des explications cohérentes pour des observations très similaires, un enjeu critique pour la confiance et la fiabilité des diagnostics individuels.
Gradient Intégré (Integrated Gradients)
Une méthode d'attribution locale pour les modèles différentiables qui calcule l'importance d'une caractéristique en intégrant le gradient de la sortie par rapport à cette caractéristique le long d'un chemin d'une ligne de base à l'entrée.
Ligne de Base (Baseline)
Un point de référence (souvent un vecteur nul ou une instance moyenne) utilisé dans les méthodes d'attribution comme les gradients intégrés pour mesurer la contribution d'une caractéristique par rapport à un état neutre ou attendu.