🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Sinusoidal Positional Encoding

Méthode d'encodage positionnel utilisant des fonctions sinus et cosinus de différentes fréquences pour créer des représentations de position uniques, permettant au modèle d'extrapoler à des longueurs de séquence plus longues jamais vues lors de l'entraînement.

📖
termes

Absolute Positional Encoding

Méthode traditionnelle où chaque position dans la séquence reçoit un encodage unique et fixe basé sur sa position absolue, sans tenir compte des relations spatiales entre les éléments de la séquence.

📖
termes

Rotary Positional Encoding

Technique RoPE qui applique une rotation matricielle aux embeddings de requêtes et clés basée sur leurs positions absolues, intégrant naturellement l'information de position dans le calcul d'attention tout en préservant les propriétés d'invariance translationnelle.

📖
termes

Alibi Positional Encoding

Méthode qui pénalise les scores d'attention basés sur la distance entre les tokens en ajoutant des biais statiques à la matrice d'attention, permettant une meilleure extrapolation à des séquences plus longues sans modifications architecturales complexes.

📖
termes

Complex Positional Encoding

Approche utilisant des nombres complexes pour représenter les positions, où la rotation dans le plan complexe encode l'information de position, offrant une représentation plus expressive et efficace pour les séquences longues.

📖
termes

Position Embeddings

Vecteurs denses représentant la position de chaque token dans une séquence, généralement de même dimension que les embeddings de mots et additionnés à ces derniers avant d'être passés au mécanisme d'attention.

📖
termes

Fixed Positional Encoding

Type d'encodage positionnel où les représentations de position sont prédéterminées et ne changent pas pendant l'entraînement, typiquement basées sur des fonctions mathématiques comme les sinus/cosinus ou des transformations de Fourier.

📖
termes

Bidirectional Positional Encoding

Technique utilisant des encodages distincts pour les directions gauche-droite et droite-gauche, permettant au modèle de capturer simultanément les informations contextuelles dans les deux sens comme dans les modèles BERT.

📖
termes

Fourier Positional Encoding

Méthode basée sur les séries de Fourier pour représenter les positions, utilisant différentes fréquences pour capturer des motifs à différentes échelles temporelles ou spatiales dans la séquence.

📖
termes

Gaussian Positional Encoding

Technique utilisant des fonctions gaussiennes centrées sur chaque position pour créer des encodages continus et lisses, particulièrement efficace pour modéliser des relations de position continues dans les données.

📖
termes

T5 Positional Encoding

Variante d'encodage positionnel utilisée dans le modèle T5, combinant des embeddings de position appris avec des scalaires de position pour améliorer la représentation des positions relatives dans les tâches de génération de texte.

📖
termes

BERT Positional Encoding

Implémentation spécifique utilisée dans les modèles BERT, basée sur des embeddings de position appris de taille 512 maximum, ajoutés directement aux embeddings de tokens avant les couches de transformeur.

📖
termes

GPT Positional Encoding

Système d'encodage positionnel utilisé dans les modèles GPT, initialement basé sur des embeddings appris puis évolué vers des variantes plus sophistiquées comme RoPE dans les versions plus récentes pour une meilleure extrapolation.

📖
termes

Positional Interpolation

Technique d'extrapolation permettant d'étendre les modèles pré-entraînés à des contextes plus longs en interpolant les encodages positionnels existants plutôt que d'en apprendre de nouveaux, préservant ainsi les connaissances acquises.

🔍

Aucun résultat trouvé