Glosario IA
El diccionario completo de la Inteligencia Artificial
Auto-Atención
Mecanismo donde cada elemento de una secuencia presta atención a todos los demás elementos de la misma secuencia para capturar las dependencias internas.
Atención Multi-Cabeza
Extensión de la atención donde múltiples cabezas de atención paralelas aprenden diferentes representaciones de la entrada simultáneamente.
Atención Posicional
Codificación posicional añadida a las incrustaciones para permitir que el modelo entienda el orden secuencial de los elementos.
Atención Cruzada
Mecanismo en el que una secuencia presta atención a otra secuencia diferente, utilizado en modelos de codificador-decodificador.
Atención por Productos Escalares
Forma matemática de atención calculada mediante el producto escalar normalizado de los vectores de consulta y clave.
Atención Aditiva
Mecanismo de atención que utiliza una red neuronal feed-forward para calcular las puntuaciones de alineación (atención Bahdanau).
Atención con Máscara
Técnica que impide el acceso a ciertas posiciones de la secuencia, utilizada para evitar fugas de información temporal.
Atención Local
Variante de atención restringida a un vecindario local alrededor de cada posición para reducir la complejidad computacional.
Atención Lineal
Aproximación de la atención con complejidad lineal en función de la longitud de la secuencia para procesar grandes volúmenes de datos.
Atención Jerárquica
Estructura de atención multinivel que captura las dependencias a diferentes escalas jerárquicas.
Atención Dispersa
Enfoque que calcula la atención solo para un subconjunto seleccionado de posiciones con el fin de optimizar el cálculo y la memoria.
Atención Multiescala
Mecanismo que combina la atención en diferentes resoluciones temporales o espaciales para capturar patrones diversos.