🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Proyección Lineal

Transformación lineal aplicada a los embeddings de entrada para generar los espacios Query, Key y Value en cada cabeza de atención multicabezal.

📖
términos

Máscara de Atención

Técnica que aplica valores infinitamente negativos a ciertas posiciones en la matriz de atención para prevenir interacciones no deseadas entre elementos de secuencia.

📖
términos

Concatenación Multicabezal

Operación que combina las salidas de todas las cabezas de atención concatenando sus representaciones antes de una proyección lineal final para producir el output.

📖
términos

Embedding Contextual

Representación vectorial enriquecida generada por el mecanismo de atención que incorpora información contextual de toda la secuencia para cada elemento.

📖
términos

Dimensión de Cabeza de Atención

Dimensionalidad reducida de cada subespacio de atención en Atención Multicabezal, típicamente calculada como dimensión_modelo / número_de_cabezas.

📖
términos

Cálculo de Atención Paralelo

Proceso donde las múltiples cabezas de atención se calculan simultáneamente en paralelo, permitiendo una captura eficiente de diferentes aspectos de las relaciones secuenciales.

📖
términos

Conexión Residual de Atención

Conexión residual que añade el input original al output de la capa de atención, facilitando el entrenamiento de redes profundas preservando el flujo de información.

📖
términos

Distribución de Atención

Distribución de probabilidad sobre los elementos de la secuencia generada por softmax, indicando dónde el modelo 'mira' al procesar un elemento específico.

🔍

No se encontraron resultados