एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Ancreur (Anchors)
Une méthode qui identifie des règles décisionnelles simples et suffisantes (ancres) qui expliquent de manière haute-fidélité la prédiction d'un modèle pour une instance donnée.
Valeur de Shapley
Un concept de la théorie des jeux mesurant la contribution marginale moyenne d'un joueur (caractéristique) à travers toutes les coalitions possibles, servant de fondement à SHAP.
Perturbation d'entrée
Le processus consistant à créer de légères variations dans les données d'entrée pour observer l'effet sur la prédiction du modèle, utilisé par des méthodes comme LIME pour construire un voisinage local.
Fidélité (Fidelity)
Une métrique évaluant à quel point une explication locale (comme le modèle simple de LIME) imite fidèlement le comportement du modèle complexe dans son voisinage.
Explication Agnostique au Modèle
Une approche d'interprétabilité qui traite le modèle prédictif comme une boîte noire, n'interagissant qu'avec ses entrées et sorties pour générer des explications.
Carte de Salience (Saliency Map)
Une visualisation qui met en évidence les pixels ou les caractéristiques d'une entrée qui ont le plus influencé la prédiction d'un modèle, souvent obtenue par calcul du gradient.
Voisinage Kernel
Dans LIME, une fonction qui définit la proximité entre l'instance d'origine et les instances perturbées, pondérant leur influence dans le modèle d'explication local.
Règle d'Explication (Explanation Rule)
Une condition logique simple (ex: IF feature_A > X AND feature_B < Y) qui capture la raison principale d'une prédiction spécifique, typique des méthodes comme Anchors.
Interprétabilité Post-hoc
L'analyse d'un modèle après son entraînement pour en comprendre les décisions, par opposition aux modèles intrinsèquement interprétables.
SHAP Kernel Explainer
Une implémentation de SHAP utilisant une pondération de type kernel pour estimer les valeurs de Shapley, la rendant agnostique au modèle mais potentiellement plus lente.
SHAP Tree Explainer
Un algorithme SHAP optimisé qui calcule les valeurs exactes de Shapley pour les modèles basés sur des arbres (comme XGBoost, LightGBM) de manière très efficace.
Explication Locale par Surrogat
Le principe fondamental de LIME, consistant à entraîner un modèle simple et interprétable (surrogat) pour approximer le comportement du modèle complexe localement.