🏠 Home
Benchmark Hub
📊 All Benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List Applications 🎨 Creative Free Pages 🎯 FSACB - Ultimate Showcase 🌍 Translation Benchmark
Models
🏆 Top 10 Models 🆓 Free Models 📋 All Models ⚙️ Kilo Code
Resources
💬 Prompts Library 📖 AI Glossary 🔗 Useful Links
📖
Sparse Attention

Blockwise Attention

Approche qui divise la séquence en blocs et calcule l'attention intra-blocs et inter-blocs de manière séquentielle ou hiérarchique. Permet de traiter de très longues séquences en échangeant des informations entre blocs plutôt qu'entre tokens individuels.

← Back