Glosario IA
El diccionario completo de la Inteligencia Artificial
Attention Map
Visualisation graphique qui représente les poids d'attention attribués par un modèle neuronal à différentes parties de l'entrée lors du processus de prise de décision.
Saliency Map
Carte de chaleur qui indique les pixels ou régions les plus influents d'une image pour la prédiction d'un modèle, calculée via les gradients de la sortie par rapport à l'entrée.
Self-Attention Visualization
Représentation visuelle des relations d'attention intra-séquence dans les modèles Transformers, montrant comment chaque token interagit avec les autres tokens de la même séquence.
Class Activation Mapping
Technique qui génère des cartes de localisation discriminatives en utilisant les informations des dernières couches convolutives sans nécessiter de modifications architecturales.
Token-wise Attention
Analyse granulaire des poids d'attention au niveau individuel de chaque token dans les modèles de traitement du langage naturel.
Feature Attribution
Processus quantitatif qui assigne des scores d'importance aux caractéristiques d'entrée pour expliquer leur contribution individuelle à la prédiction du modèle.
Attention Head Importance
Évaluation quantitative de la contribution de chaque tête d'attention dans un modèle multi-têtes à la performance globale du système.