Glosario IA
El diccionario completo de la Inteligencia Artificial
Modèle agnostique
Approche d'explication qui fonctionne avec n'importe quel modèle prédictif sans nécessiter de connaissance sur son architecture ou ses paramètres internes. Les méthodes agnostiques traitent le modèle comme une boîte noire et se basent uniquement sur ses entrées et sorties.
Explication locale
Interprétation qui explique la prédiction d'un modèle pour une instance spécifique plutôt que le comportement global du modèle. Les explications locales sont particulièrement utiles pour comprendre pourquoi une décision particulière a été prise.
Perturbation des données
Technique consistant à créer de légères variations d'une instance d'origine pour générer un ensemble de données synthétiques voisines. Dans LIME, ces perturbations servent à construire un ensemble d'apprentissage pour le modèle simple local.
Poids des caractéristiques
Mesures quantitatives indiquant l'importance relative de chaque caractéristique dans la décision locale du modèle. Ces poids permettent d'identifier les facteurs les plus influents pour une prédiction spécifique.
Voisinage de prédiction
Ensemble de points de données proches de l'instance d'origine dans l'espace des caractéristiques, utilisé pour apprendre le modèle simple local. La définition de ce voisinage est cruciale pour la pertinence de l'explication générée.
Modèle surrogate
Modèle simple et interprétable (comme la régression linéaire ou l'arbre de décision) qui approxime localement le comportement du modèle complexe. Ce modèle est entraîné sur les données perturbées pour générer des explications.
Fidélité de l'explication
Mesure de la précision avec laquelle le modèle simple local reproduit les prédictions du modèle complexe dans le voisinage considéré. Une haute fidélité garantit que l'explication représente fidèlement le comportement du modèle original.
Segment
Région contiguë de données utilisée pour expliquer les prédictions sur des images ou des textes dans LIME. Les segments permettent de grouper des pixels ou des mots adjacents pour une explication plus cohérente.
Superpixel
Groupe de pixels adjacents partageant des caractéristiques similaires (couleur, texture, intensité), utilisé comme unité de base pour les explications d'images dans LIME. Les superpixels réduisent la complexité computationnelle tout en préservant l'information visuelle pertinente.
Score de pertinence
Valeur numérique attribuée à chaque caractéristique ou segment indiquant son influence sur la prédiction locale. Ce score permet de hiérarchiser les éléments les plus importants dans la prise de décision du modèle.
Noyau de similarité
Fonction mathématique qui définit la proximité entre l'instance originale et les instances perturbées dans l'espace des caractéristiques. Ce noyau pondère l'importance des points dans l'apprentissage du modèle local.
Explication contre-factuelle
Type d'explication qui montre comment la prédiction changerait si certaines caractéristiques étaient modifiées. Complémentaire à LIME, cette approche aide à comprendre les conditions nécessaires pour obtenir une prédiction différente.
Stabilité de l'explication
Mesure de la cohérence des explications générées pour des instances similaires ou lors de multiples exécutions. Une bonne stabilité est essentielle pour la confiance dans les explications produites.
Aire d'influence
Zone dans l'espace des caractéristiques où l'explication locale reste valide et fidèle au comportement du modèle complexe. La détermination de cette aire est cruciale pour évaluer la portée de l'explication.
Complexité de l'explication
Nombre de caractéristiques ou de segments utilisés dans l'explication locale, souvent limité pour maintenir l'interprétabilité. Un compromis entre fidélité et simplicité doit être trouvé pour des explications efficaces.
Carte de chaleur
Visualisation qui représente spatialement l'importance de différentes régions d'une image dans la prédiction du modèle. Dans LIME, les cartes de chaleur utilisent les scores de pertinence pour mettre en évidence les zones influentes.