🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles
📖
Transformadores Eficientes

Dilated Attention

Extensión de sliding window attention que utiliza patrones dilatados para capturar dependencias de mayor alcance sin aumentar la complejidad. Los huecos en el patrón permiten una expansión exponencial del campo receptivo.

← Volver