🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles
📖
Sparse Attention Mechanisms

Block Sparse Attention

Approche d'attention creuse organisée en blocs, où la matrice d'attention est divisée en blocs et seuls certains blocs sont calculés pour optimiser le parallélisme matériel.

← Retour