Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Fidélité (Faithfulness)
Mesure dans laquelle une explication reflète fidèlement le raisonnement interne du modèle, évaluant si les prédictions de l'explication correspondent à celles du modèle sur des données perturbées.
Compréhensibilité (Comprehensibility)
Mesure subjective ou objective de la facilité avec laquelle un humain peut comprendre une explication, souvent liée à la complexité du modèle d'explication (ex: nombre de règles, profondeur d'un arbre).
Suffisance (Sufficiency)
Capacité d'un sous-ensemble de caractéristiques, identifié par une explication, à maintenir la prédiction originale du modèle, indiquant que ces caractéristiques sont suffisantes pour justifier la décision.
Nécessité (Necessity)
Évalue si l'absence d'une caractéristique (ou d'un ensemble de caractéristiques) identifiée comme importante par l'explication change significativement la prédiction du modèle.
Score d'Inférence Causale (CIS)
Métrique quantifiant la capacité d'une explication à identifier des relations causales réelles plutôt que de simples corrélations, en testant les effets d'interventions sur les variables.
Robustesse de l'Explication (Explanation Robustness)
Mesure la variation des explications lorsque le modèle ou les données d'entrée subissent des attaques adverses ou du bruit, évaluant la résistance de l'interprétation à la manipulation.
Coherence des Caractéristiques (Feature Coherence)
Évalue si les caractéristiques jugées importantes par une explication sont sémantiquement ou logiquement cohérentes entre elles, renforçant la plausibilité de l'explication globale.
Taux de Sélectivité (Selectivity Rate)
Indicateur mesurant la proportion de caractéristiques ou de règles utilisées par une explication par rapport au nombre total disponible, favorisant les explications parcimonieuses.
Fonction de Pertinence (Relevance Function)
Fonction mathématique qui quantifie la contribution d'une caractéristique ou d'un ensemble de caractéristiques à la prédiction finale du modèle, servant de base à de nombreuses métriques d'interprétabilité.
Accord Inter-Évaluateurs (Inter-Annotator Agreement)
Mesure statistique (ex: score Kappa de Cohen) évaluant le niveau de consensus entre différents experts humains sur la qualité ou la justesse d'une explication, validant sa subjectivité.
Biais de Confirmation (Confirmation Bias)
Métrique évaluant si une explication renforce uniquement les croyances préexistantes de l'utilisateur sans remettre en cause le modèle, mesurant le risque d'interprétations fallacieuses.
Pouvoir Discriminant (Discriminative Power)
Capacité d'une explication à distinguer clairement les caractéristiques qui influencent positivement la prédiction de celles qui l'influencent négativement, améliorant la clarté de l'interprétation.
Fidélité Globale (Global Fidelity)
Évalue la capacité d'une explication à représenter fidèlement le comportement global du modèle sur l'ensemble de l'espace des données, souvent au détriment de la précision locale.
Score de Contrefactuel (Counterfactual Score)
Métrique évaluant la qualité d'une explication contrefactuelle en fonction de la minimale perturbation requise pour changer la prédiction du modèle et de la plausibilité du scénario généré.
Profondeur Sémantique (Semantic Depth)
Mesure le niveau d'abstraction d'une explication, quantifiant si elle se base sur des caractéristiques de bas niveau (pixels) ou sur des concepts de haut niveau (objets, idées) plus intelligibles.