Glosario IA
El diccionario completo de la Inteligencia Artificial
Transformador de Grafos
Arquitectura neuronal que combina los mecanismos de atención de los Transformers con la estructura de grafos para capturar las dependencias globales y locales en los datos relacionales.
Atención sobre grafos
Mecanismo adaptado de la atención de los Transformers que calcula la importancia relativa entre los nodos de un grafo teniendo en cuenta su conectividad estructural.
Codificación posicional para grafos
Técnica de codificación posicional adaptada a grafos que integra información estructural como las distancias, los grados o los caminos para representar la posición relativa de los nodos.
Auto-atención sobre nodos
Operación donde cada nodo del grafo calcula una ponderación de atención sobre todos los demás nodos, incluyendo él mismo, para capturar las dependencias a largo alcance.
Red de Atención de Grafos (GAT)
Arquitectura pionera que introduce la atención enmascarada en las GNNs, donde los pesos de atención se calculan únicamente entre los nodos vecinos directos.
Propagación de mensajes
Proceso fundamental de las GNNs donde los nodos intercambian y agregan información con sus vecinos para actualizar sus representaciones latentes.
Mecanismo de atención multi-cabeza
Extensión de la atención donde múltiples cabezas de atención calculan independientemente los pesos de atención, permitiendo capturar diferentes tipos de relaciones en el grafo.
Incrustación de aristas
Representación vectorial de las aristas del grafo que captura sus características intrínsecas y las relaciones entre los nodos que conectan.
Transformer-XL para grafos
Extensión adaptada del Transformer-XL que gestiona las dependencias de largo alcance en los grafos gracias a un mecanismo de caché segmentado.
GraphBERT
Arquitectura pre-entrenada específicamente diseñada para grafos utilizando Transformers enmascarados y estrategias de entrenamiento auto-supervisado.
Graphormer
Arquitectura Transformer pura para grafos utilizando codificaciones posicionales basadas en la centralidad y mecanismos de atención estructurada.
Atención en las aristas
Variante de la atención donde los pesos se calculan en las aristas en lugar de los nodos, permitiendo modelar directamente la importancia de las relaciones.
Transformador de Grafos Heterogéneos
Extensión de los Transformadores de Grafos adaptada a grafos heterogéneos con diferentes tipos de nodos y aristas utilizando mecanismos de atención específicos por tipo.
Atención estructural
Mecanismo de atención que integra explícitamente información estructural como caminos, ciclos o patrones del grafo en el cálculo de los pesos de atención.
Atención cruzada entre nodos
Operación de atención donde las consultas, claves y valores provienen de representaciones diferentes de los nodos, permitiendo interacciones más complejas.