Glosarium AI
Kamus lengkap Kecerdasan Buatan
Explication par décomposition modale
Méthode d'interprétabilité qui isole et quantifie la contribution individuelle de chaque modalité d'entrée à la prédiction finale du modèle, permettant de comprendre leur influence relative.
Gradient intégré multimodal
Extension de la technique des gradients intégrés aux modèles multimodaux, qui calcule l'attribution le long d'un chemin d'intégration dans l'espace des caractéristiques combinées de toutes les modalités.
Perturbation antagoniste multimodale
Approche d'explication qui évalue l'importance des caractéristiques en introduisant des perturbations subtiles et coordonnées sur une ou plusieurs modalités pour observer l'impact sur la sortie du modèle.
Ancre logique multimodale
Règle d'explication sous forme de conjonction de conditions portant sur des caractéristiques de différentes modalités (ex: 'SI le texte contient 'chat' ET l'image montre une zone sombre'), qui suffit à ancrer la prédiction.
Projection T-SNE croisée
Technique de visualisation qui projette les représentations de plusieurs modalités dans un espace 2D commun en utilisant t-SNE, afin d'observer les alignements et les corrélations entre elles.
Matrice de co-attribution modale
Représentation matricielle où chaque élément (i, j) quantifie le score d'attribution conjointe entre une caractéristique de la modalité i et une caractéristique de la modalité j pour une prédiction donnée.
Explication par contre-factuel multimodal
Génération d'un exemple modifié sur une ou plusieurs modalités qui change la prédiction du modèle, expliquant ainsi la décision initiale en mettant en évidence les conditions critiques.
Alignement d'espaces latents
Processus d'interprétation qui vise à comprendre comment un modèle projette et aligne les espaces de représentation de différentes modalités dans un espace sémantique partagé.
Modal Orthogonality Regularization
Technique used during training to force representations from different modalities to capture complementary rather than redundant information, facilitating their distinct interpretation.
Modal Importance Masking
Method that sequentially masks parts of each input modality to measure the model's performance drop, thus creating a spatial and temporal importance map for each data type.
Hierarchical Multimodal Explanation Pipeline
Structured approach that generates explanations at multiple levels: first the importance of each modality, then the importance of features within the most influential modality.
Textual Explanation Synthesis from Visual Data
Task consisting of generating a natural language explanation that justifies a model's prediction based on salient regions or objects identified in an input image.
Post-hoc Interpretability by Unimodal Model Emulation
Method that trains a simple and interpretable model (such as a decision tree) to imitate the predictions of the complex multimodal model using features from only one modality at a time.