Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Méthodes LIME
Technique d'explication locale qui approxime le comportement d'un modèle complexe par un modèle simple interprétable autour d'une prédiction spécifique.
Valeurs SHAP
Approche basée sur la théorie des jeux pour quantifier l'impact de chaque caractéristique sur la prédiction finale du modèle.
Attribution de caractéristiques
Ensemble de techniques qui assignent un score d'importance à chaque variable d'entrée pour expliquer sa contribution à la décision du modèle.
Analyse de contre-exemples
Méthodes qui génèrent des scénarios modifiés montrant quelles conditions minimales doivent changer pour altérer la prédiction du modèle.
Cartes d'attention
Techniques de visualisation qui montrent les zones ou éléments sur lesquels un modèle de deep learning se concentre pour prendre une décision.
Modèles surrogats
Création de modèles simples et interprétables qui imitent le comportement de modèles complexes noirs tout en restant compréhensibles.
Extraction de règles
Processus qui convertit les décisions de modèles complexes en ensembles de règles logiques facilement interprétables par les humains.
Interprétation causale
Méthodes qui distinguent les relations causales des simples corrélations pour fournir des explications plus profondes et fiables.
Analyse de sensibilité
Évaluation systématique de l'impact des variations des variables d'entrée sur les prédictions du modèle.
Métriques d'évaluation de l'explicabilité
Indicateurs quantitatifs pour mesurer la qualité, la fidélité et l'utilité des explications générées par les modèles d'IA.
Explications par prototypes
Approche qui explique les prédictions en identifiant les exemples les plus représentatifs ou prototypes dans l'espace des données.
Visualisation de décision
Techniques graphiques qui représentent visuellement le processus de prise de décision du modèle pour faciliter la compréhension humaine.