Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Fidélité de l'explication
Mesure quantifiant la correspondance entre les prédictions du modèle noir et celles du modèle interprétable utilisé pour générer les explications. Une fidélité élevée indique que l'explication représente fidèlement le comportement du modèle original dans la région locale considérée.
Stabilité des explications
Indicateur évaluant la cohérence des explications générées pour des instances similaires ou pour la même instance avec de légères variations. La stabilité garantit que les explications ne varient pas de manière erratique face à des changements minimes des données d'entrée.
Complétude explicative
Métrique mesurant la capacité d'une explication à capturer tous les facteurs pertinents influençant la décision du modèle. Une explication complète doit intégrer l'ensemble des caractéristiques significatives sans omettre d'éléments cruciaux.
Pertinence sémantique
Évaluation de la cohérence entre l'explication générée et les connaissances du domaine ou le raisonnement humain attendu. Cette métrique quantifie si les explications produites sont alignées avec la logique et l'intuition des experts du domaine.
Compacité de l'explication
Mesure de la concision d'une explication, évaluant le ratio entre la quantité d'information fournie et sa complexité structurelle. Une explication compacte privilégie les éléments les plus pertinents tout en minimisant la redondance informationnelle.
Robustesse explicative
Capacité d'une explication à maintenir sa validité face à des perturbations ou des attaques adversariales sur les données d'entrée. Cette métrique évalue la résistance des explications aux manipulations malveillantes visant à induire en erreur.
Finesse granulaire
Niveau de détail auquel une explication opère, allant des explications globales (modèle entier) aux explications locales (instance spécifique). La finesse granulaire détermine la précision et la spécificité de l'interprétation fournie.
Cohérence inter-explications
Mesure évaluant la cohérence logique entre différentes explications générées pour des instances variées mais sémantiquement proches. Cette métrique assure que les explications suivent des schémas raisonnables et non contradictoires.
Utilisabilité perçue
Indicateur qualitatif mesurant la facilité avec laquelle les utilisateurs peuvent comprendre, interpréter et appliquer les explications générées. L'utilisabilité perçue évalue l'adéquation entre la complexité technique de l'explication et les capacités cognitives de l'utilisateur.
Vérifiabilité explicative
Capacité à confirmer ou infirmer de manière indépendante la validité des explications fournies par le modèle. La vérifiabilité permet aux utilisateurs de valider la cohérence des explications par rapport à des connaissances externes ou des tests empiriques.
Écart d'explication
Différence quantitative entre la complexité inhérente du modèle et la simplicité de son explication. Un écart élevé peut indiquer une perte d'information significative lors du processus de simplification explicative.
Spécificité causale
Mesure évaluant si une explication identifie correctement les relations de cause à effet plutôt que de simples corrélations. La spécificité causale distingue les facteurs qui influencent réellement la décision de ceux qui sont simplement co-occurrents.
Généralisation explicative
Capacité d'une explication locale à s'appliquer de manière cohérente à d'autres instances similaires du jeu de données. Cette métrique évalue si les schémas explicatifs identifiés peuvent être extrapolés au-delà du cas spécifique étudié.
Confiance explicative
Niveau de certitude quantifié associé à une explication, indiquant la probabilité que l'explication soit correcte. La confiance explicative permet aux utilisateurs d'évaluer la fiabilité des interprétations fournies par le système.
Équité d'explication
Métrique évaluant si les explications générées traitent équitablement différents groupes démographiques ou sous-populations. L'équité d'explication garantit l'absence de biais discriminatoires dans la manière dont les décisions sont justifiées.
Couverture explicative
Proportion de l'espace des features ou des instances pour lesquelles le modèle peut générer des explications valides. Une couverture élevée assure que le système d'explication peut opérer sur la majorité des cas rencontrés en pratique.
Latence explicative
Temps computationnel requis pour générer une explication après que le modèle ait produit sa prédiction. Cette métrique est cruciale pour les applications temps réel où les explications doivent être fournies rapidement.
Fidélité contrefactuelle
Mesure spécifique évaluant la qualité des explications contrefactuelles en termes de minimalité des changements requis et de plausibilité des scénarios générés. Cette métrique assure que les contrefactuels proposés sont réalistes et actionnables.