Glossário IA
O dicionário completo da Inteligência Artificial
Transformador de Grafos
Arquitetura neural que combina os mecanismos de atenção dos Transformers com a estrutura de grafos para capturar dependências globais e locais em dados relacionais.
Atenção em Grafos
Mecanismo adaptado da atenção dos Transformers que calcula a importância relativa entre os nós de um grafo levando em conta sua conectividade estrutural.
Codificação Posicional para Grafos
Técnica de codificação posicional adaptada para grafos que integra informações estruturais como distâncias, graus ou caminhos para representar a posição relativa dos nós.
Autoatenção nos Nós
Operação onde cada nó do grafo calcula uma ponderação de atenção sobre todos os outros nós, incluindo ele mesmo, para capturar dependências de longo alcance.
Graph Attention Network (GAT)
Arquitetura pioneira que introduz atenção mascarada nos GNNs, onde os pesos de atenção são calculados apenas entre nós vizinhos diretos.
Propagação de Mensagens
Processo fundamental dos GNNs onde os nós trocam e agregam informações com seus vizinhos para atualizar suas representações latentes.
Mecanismo de Atenção Multi-cabeça
Extensão da atenção onde múltiplas cabeças de atenção calculam independentemente os pesos de atenção, permitindo capturar diferentes tipos de relações no grafo.
Embedding de Arestas
Representação vetorial das arestas do grafo que captura suas características intrínsecas e as relações entre os nós que elas conectam.
Transformer-XL para grafos
Extensão adaptada do Transformer-XL que gerencia dependências de longo alcance em grafos através de um mecanismo de cache segmentado.
GraphBERT
Arquitetura pré-treinada especificamente projetada para grafos usando Transformers mascarados e estratégias de treinamento auto-supervisionado.
Graphormer
Arquitetura Transformer pura para grafos usando codificações posicionais baseadas em centralidade e mecanismos de atenção estruturada.
Atenção nas arestas
Variante da atenção onde os pesos são calculados nas arestas em vez dos nós, permitindo modelar diretamente a importância das relações.
Heterogeneous Graph Transformer
Extensão dos Graph Transformers adaptada para grafos heterogêneos com diferentes tipos de nós e arestas usando mecanismos de atenção específicos por tipo.
Atenção estrutural
Mecanismo de atenção que integra explicitamente informações estruturais como caminhos, ciclos ou padrões do grafo no cálculo dos pesos de atenção.
Cross-attention entre nós
Operação de atenção onde as consultas, chaves e valores provêm de representações diferentes dos nós, permitindo interações mais complexas.