🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Matriz de Atención

Matriz cuadrada que representa los pesos de atención entre todos los pares de elementos de una secuencia, visualizando los patrones de interdependencia aprendidos por el modelo.

📖
términos

Atención Codificador-Decodificador

Mecanismo donde el decodificador atiende a las salidas del codificador, permitiendo la generación de secuencias condicionadas por una secuencia fuente en los modelos seq2seq.

📖
términos

Autoatención Enmascarada

Autoatención con enmascaramiento de posiciones futuras para evitar que los elementos vean información posterior, esencial en las tareas de generación de texto.

📖
términos

Normalización Softmax

Función de activación que transforma los puntajes de atención en una distribución de probabilidades, garantizando que la suma de los pesos de atención iguale 1 para cada posición.

📖
términos

Cabeza de Atención

Subcomponente de la atención multicabezal que realiza un cálculo de atención independiente con sus propios parámetros, capturando un tipo específico de relación secuencial.

📖
términos

Abandono de Atención

Regularización aplicada a los pesos de atención durante el entrenamiento, desactivando aleatoriamente algunas conexiones para prevenir el sobreaprendizaje de los patrones de atención.

📖
términos

Atención Multi-Escala

Variante de atención que procesa simultáneamente dependencias a diferentes escalas temporales o espaciales, combinando campos receptivos variados para una comprensión jerárquica.

🔍

No se encontraron resultados