Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Feature Interaction Strength
Métrique quantifiant l'intensité des effets d'interaction entre deux ou plusieurs caractéristiques dans un modèle prédictif. L'interaction est mesurée par la différence entre l'effet combiné et la somme des effets individuels des caractéristiques.
H-statistique de Friedman
Mesure quantitative de l'interaction entre caractéristiques basée sur la variance partielle des prédictions du modèle. L'H-statistique varie de 0 (pas d'interaction) à 1 (interaction forte) et peut être calculée pour les interactions paires ou d'ordre supérieur.
Stability Metric
Indicateur mesurant la cohérence des explications générées par une méthode d'interprétation face à de légères variations des données d'entrée. Une bonne stabilité garantit que les explications ne varient pas de manière erratique pour des instances similaires.
Comprehensibility Index
Score composite évaluant la facilité avec laquelle un humain peut comprendre une explication ou un modèle, basé sur des facteurs comme la complexité syntaxique, la taille du vocabulaire et la structure logique. Cet index combine des métriques objectives et subjectives de lisibilité.
Interpretability-Accuracy Trade-off
Relation inverse entre la capacité d'un modèle à être interprété par un humain et sa performance prédictive brute. Ce compromis est quantifié par divers métriques permettant de trouver un équilibre optimal selon les exigences du domaine d'application.
Post-hoc Explainability Score
Évaluation quantitative de la qualité des explications générées après l'entraînement du modèle, combinant fidélité, stabilité et compréhensibilité. Ce score composite permet de comparer différentes techniques d'explication sur un même modèle.
Intrinsic Interpretability Measure
Métrique évaluant le degré d'interprétabilité inhérente d'un modèle basée sur sa structure algorithmique plutôt que sur des explications externes. Cette mesure considère des facteurs comme la linéarité, la monotonie et la parcimonie du modèle.
Local Fidelity Metric
Indicateur mesurant la précision d'une explication locale dans sa capacité à représenter fidèlement le comportement du modèle dans le voisinage immédiat d'une instance. Cette métrique évalue la validité des approximations locales utilisées dans les méthodes comme LIME ou Anchors.
Explanation Coverage
Proportion du jeu de données pour laquelle une méthode d'explication peut générer des interprétations valides et cohérentes. La couverture mesure la généralisabilité d'une technique d'interprétation et son applicabilité à différentes régions de l'espace des caractéristiques.
Rule-based Interpretability Score
Métrique spécifique aux modèles basés sur de règles évaluant la qualité des explications selon le nombre de règles, leur longueur moyenne et leur chevauchement. Ce score favorise les ensembles de règles concis, non redondants et facilement compréhensibles.
Consistency Measure
Indicateur évaluant si des explications similaires sont générées pour des instances avec des prédictions identiques ou similaires. La cohérence est cruciale pour maintenir la confiance dans les explications à travers différentes régions de l'espace de décision.