🏠 Startseite
Vergleiche
📊 Alle Benchmarks 🦖 Dinosaurier v1 🦖 Dinosaurier v2 ✅ To-Do-Listen-Apps 🎨 Kreative freie Seiten 🎯 FSACB - Ultimatives Showcase 🌍 Übersetzungs-Benchmark
Modelle
🏆 Top 10 Modelle 🆓 Kostenlose Modelle 📋 Alle Modelle ⚙️ Kilo Code
Ressourcen
💬 Prompt-Bibliothek 📖 KI-Glossar 🔗 Nützliche Links

KI-Glossar

Das vollständige Wörterbuch der Künstlichen Intelligenz

162
Kategorien
2.032
Unterkategorien
23.060
Begriffe
📂
Unterkategorien

Auto-Attention

Mécanisme où chaque élément d'une séquence s'attende à tous les autres éléments de la même séquence pour capturer les dépendances internes.

9 Begriffe
📂
Unterkategorien

Attention Multi-Tête

Extension de l'attention où plusieurs têtes d'attention parallèles apprennent différentes représentations de l'entrée simultanément.

7 Begriffe
📂
Unterkategorien

Attention Positionnelle

Codage positionnel ajouté aux embeddings pour permettre au modèle de comprendre l'ordre séquentiel des éléments.

11 Begriffe
📂
Unterkategorien

Attention Croisée

Mécanisme où une séquence s'attende à une autre séquence différente, utilisé dans les modèles encodeur-décodeur.

8 Begriffe
📂
Unterkategorien

Attention par Produits Scalaires

Forme mathématique d'attention calculée par le produit scalaire normalisé des vecteurs requête et clé.

9 Begriffe
📂
Unterkategorien

Attention Additive

Mécanisme d'attention utilisant un réseau neuronal feed-forward pour calculer les scores d'alignement (Bahdanau attention).

12 Begriffe
📂
Unterkategorien

Attention avec Masque

Technique empêchant l'accès à certaines positions de la séquence, utilisée pour éviter les fuites d'information temporelle.

15 Begriffe
📂
Unterkategorien

Attention Locale

Variante d'attention restreinte à un voisinage local autour de chaque position pour réduire la complexité computationnelle.

18 Begriffe
📂
Unterkategorien

Attention Linéaire

Approximation de l'attention avec complexité linéaire en fonction de la longueur de séquence pour traiter des données massives.

13 Begriffe
📂
Unterkategorien

Attention Hiérarchique

Structure d'attention à plusieurs niveaux capturant les dépendances à différentes échelles hiérarchiques.

18 Begriffe
📂
Unterkategorien

Attention Sparse

Approche ne calculant l'attention que pour un sous-ensemble sélectionné de positions pour optimiser le calcul et la mémoire.

8 Begriffe
📂
Unterkategorien

Attention Multi-Échelle

Mécanisme combinant l'attention à différentes résolutions temporelles ou spatiales pour capturer des motifs variés.

14 Begriffe
🔍

Keine Ergebnisse gefunden