🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

Sinusoidal Encoding

Méthode de codage positionnel utilisant des fonctions sinusoïdales de différentes fréquences pour représenter les positions, permettant au modèle d'extrapoler à des longueurs de séquence plus longues que celles vues lors de l'entraînement.

📖
術語

ALiBi (Attention with Linear Biases)

Méthode alternative de codage positionnel qui applique des biais linéaires directement aux scores d'attention sans ajouter d'embeddings positionnels explicites.

📖
術語

T5's Relative Position Bias

Technique introduite dans T5 où des biais scalaires appris sont ajoutés aux logits d'attention en fonction de la distance relative entre les tokens de requête et de clé.

📖
術語

DeBERTa's Disentangled Attention

Variante d'attention qui sépare explicitement le contenu et la position en représentant chaque token avec des vecteurs de contenu et de position distincts.

📖
術語

Longformer's Sliding Window Attention

Mécanisme d'attention efficace où chaque token n'attende qu'à un nombre fixe de voisins dans une fenêtre glissante, combiné avec une attention globale pour certains tokens.

📖
術語

Transformer-XL's Relative Positional Encoding

Schéma de codage positionnel révisé qui modifie le calcul d'attention pour dépendre des distances relatives plutôt que des positions absolues, améliorant la modélisation à long terme.

📖
術語

Perceiver IO's Positional Encoding

Approche de codage positionnel flexible dans Perceiver IO qui utilise des embeddings Fourier pour encoder efficacement les positions dans des espaces de dimensionnalité arbitraire.

📖
術語

Reformer's Locality Sensitive Hashing

Technique d'optimisation qui utilise LSH pour approximer l'attention, réduisant la complexité computationnelle tout en préservant les informations positionnelles pertinentes.

📖
術語

XPos (Extrapolatable Positional Encoding)

Méthode de codage positionnel conçue pour une meilleure extrapolation aux longueurs de séquence plus longues que celles vues pendant l'entraînement, combinant rotation et mise à l'échelle.

📖
術語

Complex Exponential Positional Encoding

Approche qui utilise des exponentielles complexes dans le plan complexe pour encoder les informations positionnelles, offrant des propriétés mathématiques intéressantes pour la compositionnalité.

📖
術語

Neural Tangent Kernel for Position

Perspective théorique analysant le codage positionnel à travers le prisme du NTK, fournissant des insights sur les propriétés d'apprentissage et de généralisation des différents schémas de positionnement.

🔍

搵唔到結果