🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Transformador de Grafos

Arquitetura neural que combina os mecanismos de atenção dos Transformers com a estrutura de grafos para capturar dependências globais e locais em dados relacionais.

📖
termos

Atenção em Grafos

Mecanismo adaptado da atenção dos Transformers que calcula a importância relativa entre os nós de um grafo levando em conta sua conectividade estrutural.

📖
termos

Codificação Posicional para Grafos

Técnica de codificação posicional adaptada para grafos que integra informações estruturais como distâncias, graus ou caminhos para representar a posição relativa dos nós.

📖
termos

Autoatenção nos Nós

Operação onde cada nó do grafo calcula uma ponderação de atenção sobre todos os outros nós, incluindo ele mesmo, para capturar dependências de longo alcance.

📖
termos

Graph Attention Network (GAT)

Arquitetura pioneira que introduz atenção mascarada nos GNNs, onde os pesos de atenção são calculados apenas entre nós vizinhos diretos.

📖
termos

Propagação de Mensagens

Processo fundamental dos GNNs onde os nós trocam e agregam informações com seus vizinhos para atualizar suas representações latentes.

📖
termos

Mecanismo de Atenção Multi-cabeça

Extensão da atenção onde múltiplas cabeças de atenção calculam independentemente os pesos de atenção, permitindo capturar diferentes tipos de relações no grafo.

📖
termos

Embedding de Arestas

Representação vetorial das arestas do grafo que captura suas características intrínsecas e as relações entre os nós que elas conectam.

📖
termos

Transformer-XL para grafos

Extensão adaptada do Transformer-XL que gerencia dependências de longo alcance em grafos através de um mecanismo de cache segmentado.

📖
termos

GraphBERT

Arquitetura pré-treinada especificamente projetada para grafos usando Transformers mascarados e estratégias de treinamento auto-supervisionado.

📖
termos

Graphormer

Arquitetura Transformer pura para grafos usando codificações posicionais baseadas em centralidade e mecanismos de atenção estruturada.

📖
termos

Atenção nas arestas

Variante da atenção onde os pesos são calculados nas arestas em vez dos nós, permitindo modelar diretamente a importância das relações.

📖
termos

Heterogeneous Graph Transformer

Extensão dos Graph Transformers adaptada para grafos heterogêneos com diferentes tipos de nós e arestas usando mecanismos de atenção específicos por tipo.

📖
termos

Atenção estrutural

Mecanismo de atenção que integra explicitamente informações estruturais como caminhos, ciclos ou padrões do grafo no cálculo dos pesos de atenção.

📖
termos

Cross-attention entre nós

Operação de atenção onde as consultas, chaves e valores provêm de representações diferentes dos nós, permitindo interações mais complexas.

🔍

Nenhum resultado encontrado