注意力可视化
Multi-Head Attention Patterns
Visualisation simultanée des différents mécanismes d'attention dans une couche Transformer, montrant comment chaque tête capture des types distincts de relations syntaxiques ou sémantiques.
← 返回