🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📂
sous-catégories

Mécanisme d'Attention

Fondement mathématique permettant aux modèles de pondérer l'importance relative des éléments dans une séquence de données.

5 termes
📂
sous-catégories

Self-Attention

Mécanisme où chaque élément d'une séquence calcule son attention par rapport à tous les autres éléments de la même séquence.

0 termes
📂
sous-catégories

Multi-Head Attention

Extension de l'attention utilisant plusieurs têtes d'attention en parallèle pour capturer différents types de relations.

3 termes
📂
sous-catégories

Positional Encoding

Technique d'incorporation de la position séquentielle des éléments dans les embeddings sans utiliser de RNN.

12 termes
📂
sous-catégories

Architecture Encoder-Decoder

Structure fondamentale des Transformers séparant le traitement d'entrée (encodeur) et la génération de sortie (décodeur).

2 termes
📂
sous-catégories

Attention Scaling

Normalisation par racine carrée de la dimensionnalité pour stabiliser l'entraînement et éviter les gradients explosifs.

14 termes
📂
sous-catégories

Cross-Attention

Mécanisme d'attention entre deux séquences différentes, utilisé dans les tâches de traduction et multimodales.

8 termes
📂
sous-catégories

Sparse Attention

Variante d'attention calculée uniquement sur un sous-ensemble de positions pour réduire la complexité computationnelle.

3 termes
📂
sous-catégories

Attention Masks

Mécanismes de contrôle permettant de masquer certaines positions pendant le calcul d'attention pour éviter les fuites d'information.

9 termes
📂
sous-catégories

Vision Transformers

Adaptation de l'architecture Transformer aux tâches de vision par ordinateur en traitant les images comme des séquences de patches.

9 termes
📂
sous-catégories

Efficient Attention

Ensemble d'optimisations visant à réduire la complexité quadratique de l'attention standard pour des séquences plus longues.

2 termes
📂
sous-catégories

Hierarchical Attention

Structure d'attention multi-niveaux capturant des relations à différentes échelles hiérarchiques dans les données.

12 termes
🔍

Aucun résultat trouvé