Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Explication par décomposition modale
Méthode d'interprétabilité qui isole et quantifie la contribution individuelle de chaque modalité d'entrée à la prédiction finale du modèle, permettant de comprendre leur influence relative.
Gradient intégré multimodal
Extension de la technique des gradients intégrés aux modèles multimodaux, qui calcule l'attribution le long d'un chemin d'intégration dans l'espace des caractéristiques combinées de toutes les modalités.
Perturbation antagoniste multimodale
Approche d'explication qui évalue l'importance des caractéristiques en introduisant des perturbations subtiles et coordonnées sur une ou plusieurs modalités pour observer l'impact sur la sortie du modèle.
Ancre logique multimodale
Règle d'explication sous forme de conjonction de conditions portant sur des caractéristiques de différentes modalités (ex: 'SI le texte contient 'chat' ET l'image montre une zone sombre'), qui suffit à ancrer la prédiction.
Projection T-SNE croisée
Technique de visualisation qui projette les représentations de plusieurs modalités dans un espace 2D commun en utilisant t-SNE, afin d'observer les alignements et les corrélations entre elles.
Matrice de co-attribution modale
Représentation matricielle où chaque élément (i, j) quantifie le score d'attribution conjointe entre une caractéristique de la modalité i et une caractéristique de la modalité j pour une prédiction donnée.
Explication par contre-factuel multimodal
Génération d'un exemple modifié sur une ou plusieurs modalités qui change la prédiction du modèle, expliquant ainsi la décision initiale en mettant en évidence les conditions critiques.
Alignement d'espaces latents
Processus d'interprétation qui vise à comprendre comment un modèle projette et aligne les espaces de représentation de différentes modalités dans un espace sémantique partagé.
Régularisation d'orthogonalité modale
Technique utilisée lors de l'entraînement pour forcer les représentations de différentes modalités à capturer des informations complémentaires plutôt que redondantes, facilitant leur interprétation distincte.
Masquage d'importance modale (Modal Importance Masking)
Méthode qui masque séquentiellement des parties de chaque modalité d'entrée pour mesurer la chute de performance du modèle, créant ainsi une carte d'importance spatiale et temporelle pour chaque type de donnée.
Pipeline d'explication hiérarchique multimodal
Approche structurée qui génère des explications à plusieurs niveaux : d'abord l'importance de chaque modalité, puis l'importance des caractéristiques au sein de la modalité la plus influente.
Synthèse d'explications textuelles à partir de données visuelles
Tâche consistant à générer une explication en langage naturel qui justifie la prédiction d'un modèle en se basant sur les régions ou les objets saillants identifiés dans une image d'entrée.
Interprétabilité post-hoc par émulation de modèle unimodal
Méthode qui entraîne un modèle simple et interprétable (comme un arbre de décision) à imiter les prédictions du modèle multimodal complexe en utilisant les caractéristiques d'une seule modalité à la fois.