🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Sinusoidal Encoding

Méthode de codage positionnel utilisant des fonctions sinusoïdales de différentes fréquences pour représenter les positions, permettant au modèle d'extrapoler à des longueurs de séquence plus longues que celles vues lors de l'entraînement.

📖
termer

ALiBi (Attention with Linear Biases)

Méthode alternative de codage positionnel qui applique des biais linéaires directement aux scores d'attention sans ajouter d'embeddings positionnels explicites.

📖
termer

T5's Relative Position Bias

Technique introduite dans T5 où des biais scalaires appris sont ajoutés aux logits d'attention en fonction de la distance relative entre les tokens de requête et de clé.

📖
termer

DeBERTa's Disentangled Attention

Variante d'attention qui sépare explicitement le contenu et la position en représentant chaque token avec des vecteurs de contenu et de position distincts.

📖
termer

Longformer's Sliding Window Attention

Mécanisme d'attention efficace où chaque token n'attende qu'à un nombre fixe de voisins dans une fenêtre glissante, combiné avec une attention globale pour certains tokens.

📖
termer

Transformer-XL's Relative Positional Encoding

Schéma de codage positionnel révisé qui modifie le calcul d'attention pour dépendre des distances relatives plutôt que des positions absolues, améliorant la modélisation à long terme.

📖
termer

Perceiver IO's Positional Encoding

Approche de codage positionnel flexible dans Perceiver IO qui utilise des embeddings Fourier pour encoder efficacement les positions dans des espaces de dimensionnalité arbitraire.

📖
termer

Reformer's Locality Sensitive Hashing

Technique d'optimisation qui utilise LSH pour approximer l'attention, réduisant la complexité computationnelle tout en préservant les informations positionnelles pertinentes.

📖
termer

XPos (Extrapolatable Positional Encoding)

Méthode de codage positionnel conçue pour une meilleure extrapolation aux longueurs de séquence plus longues que celles vues pendant l'entraînement, combinant rotation et mise à l'échelle.

📖
termer

Complex Exponential Positional Encoding

Approche qui utilise des exponentielles complexes dans le plan complexe pour encoder les informations positionnelles, offrant des propriétés mathématiques intéressantes pour la compositionnalité.

📖
termer

Neural Tangent Kernel for Position

Perspective théorique analysant le codage positionnel à travers le prisme du NTK, fournissant des insights sur les propriétés d'apprentissage et de généralisation des différents schémas de positionnement.

🔍

Inga resultat hittades