🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Encodeur Bidirectionnel

Composant qui traite l'intégralité de la séquence d'entrée simultanément, permettant à chaque token d'attirer l'attention sur tous les autres tokens, à la fois passés et futurs, pour une compréhension contextuelle complète.

📖
termes

Décodeur Auto-Régressif

Mécanisme de génération où le décodeur produit la séquence de sortie token par token, en se basant uniquement sur les tokens précédemment générés et sur la représentation contextuelle de l'encodeur.

📖
termes

Mécanisme d'Attention Croisée

Processus dans le décodeur qui lui permet de se concentrer sur des parties spécifiques de la sortie de l'encodeur, pondérant l'importance de chaque token d'entrée pour générer le token de sortie courant.

📖
termes

Masquage Causal

Technique appliquée dans le décodeur pour empêcher chaque position d'attirer l'attention sur les positions futures, garantissant ainsi la nature auto-régressive de la génération et l'absence de fuite d'information.

📖
termes

Passe-avant (Feed-Forward Network)

Réseau neuronal entièrement connecté appliqué à chaque position de manière indépendante après le mécanisme d'attention, permettant une transformation non linéaire et une projection à plus haute dimension.

📖
termes

Normalisation par Couche (Layer Normalization)

Technique de régularisation qui stabilise les activations en normalisant les caractéristiques pour chaque exemple individuellement, accélérant la convergence et améliorant la performance générale du modèle.

📖
termes

Bottleneck d'Encodeur

Représentation vectorielle de dimension fixe, souvent la sortie finale de l'encodeur, qui condense toute l'information de la séquence d'entrée et sert de contexte unique au décodeur pour la génération.

📖
termes

Embeddings de Token

Vecteurs denses de haute dimension qui représentent chaque token discret du vocabulaire dans un espace continu, capturant des informations sémantiques et syntaxiques apprises durant l'entraînement.

🔍

Aucun résultat trouvé