🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Attention par Produits Scalaires

Mécanisme d'attention où la pertinence entre requête et clé est calculée par produit scalaire, suivi d'une normalisation par softmax et d'une pondération des valeurs.

📖
termer

Vecteur Requête

Représentation vectorielle encodant l'information de l'élément courant pour lequel on cherche les relations avec d'autres éléments.

📖
termer

Vecteur Clé

Vecteur caractéristique utilisé pour calculer la compatibilité avec une requête via produit scalaire dans le mécanisme d'attention.

📖
termer

Vecteur Valeur

Vecteur contenant l'information réelle qui sera pondérée par les poids d'attention pour générer la sortie contextuelle.

📖
termer

Facteur d'Échelle

Terme de normalisation (√dk) appliqué aux scores d'attention pour prévenir la saturation de softmax et améliorer la convergence.

📖
termer

Poids d'Attention

Coefficients normalisés par softmax indiquant l'importance relative de chaque élément pour la génération de la sortie.

📖
termer

Multi-Tête Attention

Extension du mécanisme d'attention utilisant plusieurs ensembles de matrices requête-clé-valeur pour capturer différents types de relations.

📖
termer

Contexte Attentionnel

Vecteur de sortie obtenu par la somme pondérée des valeurs utilisant les poids d'attention comme coefficients de pondération.

📖
termer

Matrices de Projection

Matrices de poids apprenables (Wq, Wk, Wv) transformant les embeddings en espaces requête, clé et valeur.

🔍

Inga resultat hittades