🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📂
podkategorie

Auto-Attention

Mécanisme où chaque élément d'une séquence s'attende à tous les autres éléments de la même séquence pour capturer les dépendances internes.

9 pojęcia
📂
podkategorie

Attention Multi-Tête

Extension de l'attention où plusieurs têtes d'attention parallèles apprennent différentes représentations de l'entrée simultanément.

7 pojęcia
📂
podkategorie

Attention Positionnelle

Codage positionnel ajouté aux embeddings pour permettre au modèle de comprendre l'ordre séquentiel des éléments.

11 pojęcia
📂
podkategorie

Attention Croisée

Mécanisme où une séquence s'attende à une autre séquence différente, utilisé dans les modèles encodeur-décodeur.

8 pojęcia
📂
podkategorie

Attention par Produits Scalaires

Forme mathématique d'attention calculée par le produit scalaire normalisé des vecteurs requête et clé.

9 pojęcia
📂
podkategorie

Attention Additive

Mécanisme d'attention utilisant un réseau neuronal feed-forward pour calculer les scores d'alignement (Bahdanau attention).

12 pojęcia
📂
podkategorie

Attention avec Masque

Technique empêchant l'accès à certaines positions de la séquence, utilisée pour éviter les fuites d'information temporelle.

15 pojęcia
📂
podkategorie

Attention Locale

Variante d'attention restreinte à un voisinage local autour de chaque position pour réduire la complexité computationnelle.

18 pojęcia
📂
podkategorie

Attention Linéaire

Approximation de l'attention avec complexité linéaire en fonction de la longueur de séquence pour traiter des données massives.

13 pojęcia
📂
podkategorie

Attention Hiérarchique

Structure d'attention à plusieurs niveaux capturant les dépendances à différentes échelles hiérarchiques.

18 pojęcia
📂
podkategorie

Attention Sparse

Approche ne calculant l'attention que pour un sous-ensemble sélectionné de positions pour optimiser le calcul et la mémoire.

8 pojęcia
📂
podkategorie

Attention Multi-Échelle

Mécanisme combinant l'attention à différentes résolutions temporelles ou spatiales pour capturer des motifs variés.

14 pojęcia
🔍

Nie znaleziono wyników