AI-woordenlijst
Het complete woordenboek van kunstmatige intelligentie
Stabilité (Stability)
Mesure de la cohérence des explications générées pour des instances similaires ou pour la même instance avec de légères variations de données. Une faible stabilité peut indiquer une explication non robuste ou un modèle instable.
Infidélité (Infidelity)
Métrique quantifiant l'écart entre le gradient du modèle d'explication et le gradient du modèle de boîte noire. Elle mesure la capacité d'une explication à capturer correctement la sensibilité du modèle aux variations d'entrée.
Complexité de l'explication (Explanation Complexity)
Mesure de la simplicité ou de la concision d'une explication, souvent évaluée par le nombre de règles, de features ou de termes non nuls. Une faible complexité favorise une meilleure compréhension humaine.
Score de Robustesse (Robustness Score)
Évaluation quantitative de la variation des explications face à des perturbations adverses sur les données d'entrée. Un score élevé signifie que les explications résistent bien aux attaques et aux bruits.
Aire sous la Courbe de Fidélité (AUC-Fidelity)
Métrique agrégée calculant l'aire sous la courbe de la fidélité en fonction de la taille du voisinage ou du nombre de features utilisées. Elle permet de comparer la performance globale des méthodes d'explication.
Écart de Prédiction Local (Local Prediction Gap)
Différence absolue entre la prédiction du modèle de boîte noire et celle du modèle d'explication pour une instance spécifique. Cette métrique évalue la précision de l'approximation locale.
Taux de Compression (Compression Rate)
Ratio entre le nombre de features dans le modèle original et le nombre de features dans l'explication simplifiée. Il quantifie le degré de simplification de l'explication par rapport au modèle complet.
Coherence des Explications (Explanation Coherence)
Mesure de la cohérence logique entre les explications générées pour différentes instances d'une même classe ou pour des instances voisines. Elle évalue la cohérence globale du système d'explication.
Explanation Loss Function
Mathematical objective function used to optimize the parameters of an explanation model. It generally balances fidelity to the original model and the complexity of the explanation.
Noise Sensitivity
Metric quantifying the variation in explanations when random noise is added to the input data. Low noise sensitivity is desirable for reliable explanations.
Explanation Monotonicity
Property measuring whether the feature importances in the explanation vary consistently with monotonic changes in the input values. It ensures the directional consistency of explanations.
Reconstruction Error
Metric evaluating the ability of an explanation to reconstruct the behavior of the original model, often measured by the mean squared error between predictions. It is crucial for methods based on model distillation.
Selectivity Index
Measure quantifying the ability of an explanation method to focus on the most relevant features for a given prediction. A high index indicates better identification of key variables.
Normalized Fidelity Score
Fidelity metric scaled between 0 and 1 to facilitate comparison between different models and explanation methods. It allows for a standardized evaluation of explanation quality.
Feature Ablation Evaluation Protocol
Systematic methodology evaluating the quality of an explanation by measuring the impact on model performance when features identified as important are removed or masked.
Completeness Metric
Quantitative evaluation measuring whether an explanation captures all relevant factors that contributed to a specific prediction. It contrasts with partial or incomplete explanations.
Explanation Variance
Statistical measure of the dispersion of explanations generated over multiple runs for the same instance. Low variance is essential for reproducibility and reliability of explanations.