🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Attention Weights Visualization

Technique graphique représentant les valeurs numériques d'attention entre les tokens d'une séquence, utilisant des intensités de couleur ou de taille pour quantifier les relations d'importance.

📖
个术语

Heat Maps

Représentation matricielle bidimensionnelle où les couleurs codent l'intensité des poids d'attention, permettant d'identifier rapidement les zones de forte concentration attentionnelle.

📖
个术语

Attention Heads Analysis

Étude comparative des patterns d'attention individuels dans chaque tête de mécanisme multi-tête, révélant les spécialisations fonctionnelles et les redondances entre les têtes.

📖
个术语

Multi-Head Attention Patterns

Visualisation simultanée des différents mécanismes d'attention dans une couche Transformer, montrant comment chaque tête capture des types distincts de relations syntaxiques ou sémantiques.

📖
个术语

Self-Attention Matrix

Matrice carrée représentant les poids d'attention entre tous les paires de tokens d'une même séquence, où chaque élément (i,j) indique l'influence du token j sur le token i.

📖
个术语

Cross-Attention Visualization

Représentation graphique des poids d'attention entre deux séquences différentes, typiquement utilisée dans les modèles encodeur-décodeur pour visualiser les alignements source-cible.

📖
个术语

Attention Rollout

Méthode de propagation récursive des poids d'attention à travers les couches successives pour calculer l'influence cumulée d'un token sur les prédictions finales du modèle.

📖
个术语

Attention Flow

Technique de visualisation montrant comment l'information circule à travers les couches Transformer en traçant les chemins d'influence attentionnelle entre les tokens.

📖
个术语

Gradient-Based Attention

Approche utilisant les gradients de la sortie par rapport aux poids d'attention pour identifier les contributions les plus pertinentes à la prédiction du modèle.

📖
个术语

Token-to-Token Attention

Visualisation directe des relations d'attention paires entre tokens, permettant d'identifier les dépendances locales et globales dans la séquence d'entrée.

📖
个术语

Layer-wise Attention Analysis

Examen comparative des patterns d'attention à travers différentes profondeurs du réseau, révélant l'évolution des représentations abstraites des couches inférieures aux supérieures.

📖
个术语

Attention Trajectory

Visualisation temporelle de l'évolution des poids d'attention pendant l'inférence ou l'entraînement, montrant comment les patterns se stabilisent ou changent dynamiquement.

📖
个术语

Attention Saliency Maps

Cartes de chaleur superposées sur le texte d'entrée pour mettre en évidence les tokens recevant le plus d'attention, facilitant l'interprétation des décisions du modèle.

📖
个术语

Attention Propagation

Technique traçant comment les signaux d'attention se propagent et s'amplifient à travers le réseau, révélant les chemins critiques pour la prise de décision.

📖
个术语

Attention Projection

Réduction dimensionnelle des poids d'attention haute dimensionnelle vers des espaces 2D/3D visualisables, utilisant des techniques comme t-SNE ou UMAP pour identifier des clusters de patterns similaires.

📖
个术语

Attention Clustering

Regroupement automatique des patterns d'attention similaires pour identifier des comportements récurrents ou des spécialisations fonctionnelles dans les mécanismes d'attention.

📖
个术语

Attention Pattern Classification

Catégorisation automatique des types de patterns d'attention (syntaxiques, sémantiques, positionnels) basée sur leurs caractéristiques structurelles et distributionnelles.

🔍

未找到结果