🏠 Trang chủ
Benchmark
📊 Tất cả benchmark 🦖 Khủng long v1 🦖 Khủng long v2 ✅ Ứng dụng To-Do List 🎨 Trang tự do sáng tạo 🎯 FSACB - Trình diễn cuối cùng 🌍 Benchmark dịch thuật
Mô hình
🏆 Top 10 mô hình 🆓 Mô hình miễn phí 📋 Tất cả mô hình ⚙️ Kilo Code
Tài nguyên
💬 Thư viện prompt 📖 Thuật ngữ AI 🔗 Liên kết hữu ích

Thuật ngữ AI

Từ điển đầy đủ về Trí tuệ nhân tạo

162
danh mục
2.032
danh mục con
23.060
thuật ngữ
📂
danh mục con

Auto-Attention

Mécanisme où chaque élément d'une séquence s'attende à tous les autres éléments de la même séquence pour capturer les dépendances internes.

9 thuật ngữ
📂
danh mục con

Attention Multi-Tête

Extension de l'attention où plusieurs têtes d'attention parallèles apprennent différentes représentations de l'entrée simultanément.

7 thuật ngữ
📂
danh mục con

Attention Positionnelle

Codage positionnel ajouté aux embeddings pour permettre au modèle de comprendre l'ordre séquentiel des éléments.

11 thuật ngữ
📂
danh mục con

Attention Croisée

Mécanisme où une séquence s'attende à une autre séquence différente, utilisé dans les modèles encodeur-décodeur.

8 thuật ngữ
📂
danh mục con

Attention par Produits Scalaires

Forme mathématique d'attention calculée par le produit scalaire normalisé des vecteurs requête et clé.

9 thuật ngữ
📂
danh mục con

Attention Additive

Mécanisme d'attention utilisant un réseau neuronal feed-forward pour calculer les scores d'alignement (Bahdanau attention).

12 thuật ngữ
📂
danh mục con

Attention avec Masque

Technique empêchant l'accès à certaines positions de la séquence, utilisée pour éviter les fuites d'information temporelle.

15 thuật ngữ
📂
danh mục con

Attention Locale

Variante d'attention restreinte à un voisinage local autour de chaque position pour réduire la complexité computationnelle.

18 thuật ngữ
📂
danh mục con

Attention Linéaire

Approximation de l'attention avec complexité linéaire en fonction de la longueur de séquence pour traiter des données massives.

13 thuật ngữ
📂
danh mục con

Attention Hiérarchique

Structure d'attention à plusieurs niveaux capturant les dépendances à différentes échelles hiérarchiques.

18 thuật ngữ
📂
danh mục con

Attention Sparse

Approche ne calculant l'attention que pour un sous-ensemble sélectionné de positions pour optimiser le calcul et la mémoire.

8 thuật ngữ
📂
danh mục con

Attention Multi-Échelle

Mécanisme combinant l'attention à différentes résolutions temporelles ou spatiales pour capturer des motifs variés.

14 thuật ngữ
🔍

Không tìm thấy kết quả