স্পার্স অ্যাটেনশন
Efficient Attention
Paradigme englobant toutes les variantes d'attention visant à réduire la complexité computationnelle tout en préservant les capacités de modélisation des Transformers.
← ফিরে যান