🏠 Home
Prestatietests
📊 Alle benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List applicaties 🎨 Creatieve vrije pagina's 🎯 FSACB - Ultieme showcase 🌍 Vertaalbenchmark
Modellen
🏆 Top 10 modellen 🆓 Gratis modellen 📋 Alle modellen ⚙️ Kilo Code
Bronnen
💬 Promptbibliotheek 📖 AI-woordenlijst 🔗 Nuttige links
📖
Sparse Attention

Blockwise Attention

Approche qui divise la séquence en blocs et calcule l'attention intra-blocs et inter-blocs de manière séquentielle ou hiérarchique. Permet de traiter de très longues séquences en échangeant des informations entre blocs plutôt qu'entre tokens individuels.

← Terug