Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Contre-exemple (Counterfactual)
Instance de données minimale et modifiée par rapport à un cas d'origine, qui change la prédiction du modèle vers une sortie souhaitée, servant à expliquer la décision frontalière du modèle.
Explication Contre-explicative (Counterfactual Explanation)
Méthode d'interprétabilité qui explique une prédiction en présentant un scénario hypothétique (contre-exemple) où la décision du modèle aurait été différente, clarifiant ainsi les critères de décision.
Validité Contre-explicative (Counterfactual Validity)
Critère garantissant qu'un contre-exemple généré produit bien la prédiction alternative attendue par le modèle, assurant la fiabilité et la pertinence de l'explication fournie.
Proximité Contre-explicative (Counterfactual Proximity)
Mesure de la distance entre l'instance d'origine et le contre-exemple, souvent quantifiée par une norme (ex: L1, L2), visant à garantir que l'explication soit plausible et facilement interprétable.
Sparsité Contre-explicative (Counterfactual Sparsity)
Principe selon lequel un contre-exemple doit modifier le plus petit nombre possible de caractéristiques de l'instance d'origine pour maximiser la clarté et l'actionnabilité de l'explication.
Plausibilité Contre-explicative (Counterfactual Plausibility)
Évaluation de la crédibilité d'un contre-exemple dans le monde réel, s'assurant que les modifications suggérées sont réalisables et ne correspondent pas à une instance aberrante ou impossible.
Diversité Contre-explicative (Counterfactual Diversity)
Objectif de générer un ensemble de contre-exemples qui ne sont pas redondants, offrant plusieurs chemins alternatifs distincts pour atteindre une prédiction différente et enrichissant ainsi la compréhension du modèle.
Coût Contre-explicatif (Counterfactual Cost)
Fonction pondérant les modifications de caractéristiques dans un contre-exemple, reflétant la difficulté ou le coût (monétaire, temporel, etc.) d'effectuer ces changements dans la réalité.
Causalité Contre-explicative (Causal Counterfactuals)
Approche avancée où les contre-exemples sont générés en respectant les relations de causalité entre les variables, garantissant que les scénarios proposés ne violent pas les contraintes du monde réel.
Robustesse Contre-explicative (Counterfactual Robustness)
Capacité d'un contre-exemple à maintenir sa prédiction alternative face à de légères variations ou à du bruit, indiquant la stabilité de la frontière de décision du modèle dans cette région.
Génération de Contre-exemples Adversariaux (Adversarial Counterfactual Generation)
Utilisation de techniques d'apprentissage adversarial pour créer des contre-exemples, souvent dans un but de sécurité ou d'audit, afin de tester les vulnérabilités et les points faibles d'un modèle.
Espace Latent Contre-explicatif (Counterfactual Latent Space)
Méthode qui recherche des contre-exemples dans un espace de représentation de plus faible dimension (espace latent) pour améliorer l'efficacité computationnelle et la cohérence des instances générées.
Méthodes d'Optimisation Contre-explicatives (Counterfactual Optimization Methods)
Ensemble d'algorithmes (ex: programmation par contraintes, descente de gradient) utilisés pour résoudre le problème de recherche du contre-exemple optimal en minimisant une fonction de perte combinant proximité et validité.
Explications Contre-explicatives Multi-classe (Multi-class Counterfactual Explanations)
Extension des contre-exemples aux problèmes de classification avec plus de deux classes, où l'on génère des instances pour basculer vers n'importe quelle autre classe cible, et pas seulement la classe opposée.