Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
XAI (Explainable AI)
Ensemble de techniques et de méthodes permettant de rendre les systèmes d'intelligence artificielle compréhensibles pour les humains, en transformant les processus de décision complexes en explications interprétables.
Interprétabilité locale
Capacité d'expliquer la prédiction d'un modèle pour une instance spécifique, en identifiant les caractéristiques qui ont influencé cette décision particulière.
Interprétabilité globale
Compréhension d'ensemble du comportement d'un modèle d'IA, en expliquant comment il prend ses décisions de manière générale sur l'ensemble du jeu de données.
Boîte noire
Système d'IA dont le fonctionnement interne est opaque ou incompréhensible pour les humains, rendant difficile l'explication de ses décisions et processus de raisonnement.
LIME (Local Interpretable Model-agnostic Explanations)
Technique d'interprétation qui explique les prédictions individuelles en créant des modèles locaux simples approximant le comportement du modèle complexe autour de prédiction spécifique.
SHAP (SHapley Additive exPlanations)
Méthode d'explication basée sur la théorie des jeux qui quantifie l'impact de chaque caractéristique sur la prédiction finale en distribuant équitablement le crédit entre toutes les caractéristiques.
Traçabilité des décisions
Capacité de suivre et documenter chaque étape du processus de décision d'un système d'IA, depuis les données d'entrée jusqu'au résultat final, pour garantir l'auditabilité.
Auditabilité de l'IA
Possibilité d'examiner systématiquement un système d'IA pour évaluer sa conformité aux normes, régulations et exigences éthiques, notamment concernant les biais et la discrimination.
Explicabilité des modèles
Capacité d'un système d'IA à fournir des justifications compréhensibles et cohérentes de ses décisions, permettant aux utilisateurs de comprendre le raisonnement sous-jacent.
Importance des caractéristiques
Mesure quantitative de l'influence de chaque variable d'entrée sur les prédictions du modèle, permettant d'identifier les facteurs les plus déterminants dans la prise de décision.
Visualisation des décisions
Techniques graphiques représentant le processus de décision d'un modèle d'IA, permettant aux utilisateurs de comprendre intuitivement comment les prédictions sont générées.
Méta-explications
Explications de second niveau qui décrivent pourquoi le modèle d'IA produit certaines explications plutôt que d'autres, augmentant la confiance dans le système explicatif lui-même.
Comptes-rendus automatisés
Systèmes générant automatiquement des rapports détaillés expliquant les décisions de l'IA, incluant les données utilisées, le raisonnement suivi et les niveaux de confiance.
Validation humaine
Processus par lequel des experts humains examinent et valident les explications fournies par les systèmes d'IA pour garantir leur pertinence et leur exactitude.
Documentation de modèles
Enregistrement structuré et complet des caractéristiques, performances, limitations et comportements d'un modèle d'IA pour assurer sa transparence et sa réutilisabilité.
Diagnostic de biais
Analyse systématique des décisions d'un modèle pour identifier, quantifier et comprendre les discriminations potentielles basées sur des caractéristiques protégées ou sensibles.
Cartes de chaleur d'attention
Visualisations montrant les zones ou caractéristiques sur lesquelles un modèle d'IA se concentre particulièrement pour prendre sa décision, facilitant la compréhension de son raisonnement.