🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📂
underkategorier

Auto-Attention

Mécanisme où chaque élément d'une séquence s'attende à tous les autres éléments de la même séquence pour capturer les dépendances internes.

9 termer
📂
underkategorier

Attention Multi-Tête

Extension de l'attention où plusieurs têtes d'attention parallèles apprennent différentes représentations de l'entrée simultanément.

7 termer
📂
underkategorier

Attention Positionnelle

Codage positionnel ajouté aux embeddings pour permettre au modèle de comprendre l'ordre séquentiel des éléments.

11 termer
📂
underkategorier

Attention Croisée

Mécanisme où une séquence s'attende à une autre séquence différente, utilisé dans les modèles encodeur-décodeur.

8 termer
📂
underkategorier

Attention par Produits Scalaires

Forme mathématique d'attention calculée par le produit scalaire normalisé des vecteurs requête et clé.

9 termer
📂
underkategorier

Attention Additive

Mécanisme d'attention utilisant un réseau neuronal feed-forward pour calculer les scores d'alignement (Bahdanau attention).

12 termer
📂
underkategorier

Attention avec Masque

Technique empêchant l'accès à certaines positions de la séquence, utilisée pour éviter les fuites d'information temporelle.

15 termer
📂
underkategorier

Attention Locale

Variante d'attention restreinte à un voisinage local autour de chaque position pour réduire la complexité computationnelle.

18 termer
📂
underkategorier

Attention Linéaire

Approximation de l'attention avec complexité linéaire en fonction de la longueur de séquence pour traiter des données massives.

13 termer
📂
underkategorier

Attention Hiérarchique

Structure d'attention à plusieurs niveaux capturant les dépendances à différentes échelles hiérarchiques.

18 termer
📂
underkategorier

Attention Sparse

Approche ne calculant l'attention que pour un sous-ensemble sélectionné de positions pour optimiser le calcul et la mémoire.

8 termer
📂
underkategorier

Attention Multi-Échelle

Mécanisme combinant l'attention à différentes résolutions temporelles ou spatiales pour capturer des motifs variés.

14 termer
🔍

Inga resultat hittades