Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
242
catégories
3 353
sous-catégories
40 780
termes
termes
Rotary Position Embedding
Technique d'encodage positionnel appliquant une rotation complexe aux embeddings en fonction de leur position relative. Conserve les propriétés d'invariance absolue tout en encodant efficacement les relations positionnelles.
termes
Alibi Position Encoding
Méthode d'encodage positionnel ajoutant des biais linéaires aux scores d'attention en fonction de la distance entre tokens. Permet une meilleure extrapolation à des séquences plus longues sans réentraînement.
termes
Attention Projection Matrices
Matrices de poids apprenables Wq, Wk, Wv et Wo transformant les embeddings en queries, keys, values et fusionnant les sorties multi-head. Ces projections linéaires sont les paramètres principaux du mécanisme d'attention.
🔍