Glossário IA
O dicionário completo da Inteligência Artificial
Visualização dos Pesos de Atenção
Técnica gráfica que representa os valores numéricos de atenção entre os tokens de uma sequência, usando intensidades de cor ou tamanho para quantificar as relações de importância.
Mapas de Calor
Representação matricial bidimensional onde as cores codificam a intensidade dos pesos de atenção, permitindo identificar rapidamente as zonas de alta concentração atencional.
Análise das Cabeças de Atenção
Estudo comparativo dos padrões de atenção individuais em cada cabeça do mecanismo multi-cabeça, revelando as especializações funcionais e as redundâncias entre as cabeças.
Padrões de Atenção Multi-Cabeça
Visualização simultânea dos diferentes mecanismos de atenção em uma camada Transformer, mostrando como cada cabeça captura tipos distintos de relações sintáticas ou semânticas.
Matriz de Autoatenção
Matriz quadrada representando os pesos de atenção entre todos os pares de tokens de uma mesma sequência, onde cada elemento (i,j) indica a influência do token j sobre o token i.
Visualização de Atenção Cruzada
Representação gráfica dos pesos de atenção entre duas sequências diferentes, tipicamente utilizada nos modelos codificador-decodificador para visualizar os alinhamentos fonte-alvo.
Propagação da Atenção
Método de propagação recursiva dos pesos de atenção através das camadas sucessivas para calcular a influência cumulativa de um token nas previsões finais do modelo.
Fluxo de Atenção
Técnica de visualização que mostra como a informação circula através das camadas Transformer, traçando os caminhos de influência atencional entre os tokens.
Atenção Baseada em Gradiente
Abordagem que utiliza os gradientes da saída em relação aos pesos de atenção para identificar as contribuições mais relevantes para a previsão do modelo.
Atenção Token-a-Token
Visualização direta das relações de atenção pares entre tokens, permitindo identificar as dependências locais e globais na sequência de entrada.
Análise de Atenção por Camada
Exame comparativo dos padrões de atenção através de diferentes profundidades da rede, revelando a evolução das representações abstratas das camadas inferiores para as superiores.
Trajetória de Atenção
Visualização temporal da evolução dos pesos de atenção durante a inferência ou o treinamento, mostrando como os padrões se estabilizam ou mudam dinamicamente.
Mapas de Saliência de Atenção
Mapas de calor sobrepostos no texto de entrada para destacar os tokens que recebem mais atenção, facilitando a interpretação das decisões do modelo.
Propagação de Atenção
Técnica que rastreia como os sinais de atenção se propagam e se amplificam através da rede, revelando os caminhos críticos para a tomada de decisão.
Projeção de Atenção
Redução dimensional dos pesos de atenção de alta dimensão para espaços 2D/3D visualizáveis, usando técnicas como t-SNE ou UMAP para identificar clusters de padrões similares.
Agrupamento de Atenção
Agrupamento automático de padrões de atenção similares para identificar comportamentos recorrentes ou especializações funcionais nos mecanismos de atenção.
Classificação de Padrões de Atenção
Classificação automática dos tipos de padrões de atenção (sintáticos, semânticos, posicionais) baseada em suas características estruturais e distribucionais.