🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Transformador de Grafos

Arquitectura neuronal que combina los mecanismos de atención de los Transformers con la estructura de grafos para capturar las dependencias globales y locales en los datos relacionales.

📖
términos

Atención sobre grafos

Mecanismo adaptado de la atención de los Transformers que calcula la importancia relativa entre los nodos de un grafo teniendo en cuenta su conectividad estructural.

📖
términos

Codificación posicional para grafos

Técnica de codificación posicional adaptada a grafos que integra información estructural como las distancias, los grados o los caminos para representar la posición relativa de los nodos.

📖
términos

Auto-atención sobre nodos

Operación donde cada nodo del grafo calcula una ponderación de atención sobre todos los demás nodos, incluyendo él mismo, para capturar las dependencias a largo alcance.

📖
términos

Red de Atención de Grafos (GAT)

Arquitectura pionera que introduce la atención enmascarada en las GNNs, donde los pesos de atención se calculan únicamente entre los nodos vecinos directos.

📖
términos

Propagación de mensajes

Proceso fundamental de las GNNs donde los nodos intercambian y agregan información con sus vecinos para actualizar sus representaciones latentes.

📖
términos

Mecanismo de atención multi-cabeza

Extensión de la atención donde múltiples cabezas de atención calculan independientemente los pesos de atención, permitiendo capturar diferentes tipos de relaciones en el grafo.

📖
términos

Incrustación de aristas

Representación vectorial de las aristas del grafo que captura sus características intrínsecas y las relaciones entre los nodos que conectan.

📖
términos

Transformer-XL para grafos

Extensión adaptada del Transformer-XL que gestiona las dependencias de largo alcance en los grafos gracias a un mecanismo de caché segmentado.

📖
términos

GraphBERT

Arquitectura pre-entrenada específicamente diseñada para grafos utilizando Transformers enmascarados y estrategias de entrenamiento auto-supervisado.

📖
términos

Graphormer

Arquitectura Transformer pura para grafos utilizando codificaciones posicionales basadas en la centralidad y mecanismos de atención estructurada.

📖
términos

Atención en las aristas

Variante de la atención donde los pesos se calculan en las aristas en lugar de los nodos, permitiendo modelar directamente la importancia de las relaciones.

📖
términos

Transformador de Grafos Heterogéneos

Extensión de los Transformadores de Grafos adaptada a grafos heterogéneos con diferentes tipos de nodos y aristas utilizando mecanismos de atención específicos por tipo.

📖
términos

Atención estructural

Mecanismo de atención que integra explícitamente información estructural como caminos, ciclos o patrones del grafo en el cálculo de los pesos de atención.

📖
términos

Atención cruzada entre nodos

Operación de atención donde las consultas, claves y valores provienen de representaciones diferentes de los nodos, permitiendo interacciones más complejas.

🔍

No se encontraron resultados