Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
242
catégories
3 353
sous-catégories
40 780
termes
termes
Block Sparse Attention
Approche d'attention creuse organisée en blocs, où la matrice d'attention est divisée en blocs et seuls certains blocs sont calculés pour optimiser le parallélisme matériel.
termes
LSH Attention
Mécanisme d'attention utilisant le hachage sensible à la localité pour regrouper les requêtes et clés similaires, ne calculant l'attention qu'au sein de ces groupes.
🔍