Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Méthodes d'importance locale (LIME)
Techniques d'explication qui analysent les prédictions individuelles pour comprendre comment un modèle prend une décision spécifique.
Méthodes SHAP (SHapley Additive exPlanations)
Approche basée sur la théorie des jeux pour quantifier l'impact de chaque caractéristique sur les prédictions du modèle.
Analyse des caractéristiques
Étude systématique de l'importance, de la pertinence et de l'impact des variables d'entrée sur les prédictions du modèle.
Visualisation de modèles
Ensemble de techniques graphiques permettant de représenter visuellement le comportement interne et les décisions des modèles d'IA.
Analyse de contrefactuels
Génération de scénarios alternatifs pour comprendre quelles modifications minimales des entrées changeraient la prédiction du modèle.
Règles d'interprétation
Extraction de règles logiques simples et compréhensibles à partir de modèles complexes comme les réseaux de neurones.
Interprétabilité post-hoc
Méthodes appliquées après l'entraînement pour expliquer les décisions de modèles initialement non interprétables.
Interprétabilité par conception
Approches où la transparence est intégrée dès la conception du modèle, créant des algorithmes naturellement explicables.
Explications causales
Analyse des relations de cause à effet dans les décisions du modèle pour aller au-delà des simples corrélations.
Analyse de biais algorithmiques
Détection, quantification et explication des biais systématiques dans les prédictions des modèles d'IA.
Métriques de fidélité des explications
Ensemble de mesures pour évaluer la qualité et la précision des explications générées par les techniques d'interprétabilité.
Arbres de décision interprétables
Structures arborescentes spécifiquement conçues pour offrir des décisions transparentes et facilement compréhensibles.
Cartes de pertinence (Saliency Maps)
Techniques de visualisation qui mettent en évidence les régions ou caractéristiques les plus influentes dans les données d'entrée.
Explications multimodales
Approches d'interprétation adaptées aux modèles traitant simultanément plusieurs types de données (texte, image, audio).
Audit de transparence
Évaluation systématique et indépendante de la transparence, de l'équité et de la fiabilité des modèles d'IA.