🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📂
sous-catégories

Self-Attention

Mécanisme fondamental permettant aux transformers de calculer dynamiquement l'importance relative de chaque élément dans une séquence par rapport aux autres.

2 termes
📂
sous-catégories

Multi-Head Attention

Extension du self-attention où plusieurs têtes d'attention opèrent en parallèle pour capturer différents types de relations dans les données.

4 termes
📂
sous-catégories

Positional Encoding

Technique incorporant l'information de position séquentielle dans les embeddings pour compenser l'absence de récurrence dans les transformers.

6 termes
📂
sous-catégories

Encoder-Decoder Architecture

Structure fondamentale des transformers originaux combinant un encodeur pour traiter l'entrée et un décodeur pour générer la sortie.

8 termes
📂
sous-catégories

BERT (Bidirectional Encoder Representations)

Famille de modèles pré-entraînés basés sur l'architecture encodeur-only avec compréhension bidirectionnelle du contexte.

10 termes
📂
sous-catégories

GPT (Generative Pre-trained Transformer)

Architecture décodeur-only optimisée pour la génération de texte auto-régressive, formant la base des grands modèles de langage.

5 termes
📂
sous-catégories

Vision Transformers (ViT)

Application des architectures transformer au traitement d'images en divisant les images en patches et les traitant comme des séquences.

11 termes
📂
sous-catégories

Sparse Attention Mechanisms

Variantes d'attention réduisant la complexité computationnelle en limitant les connexions entre éléments de la séquence.

2 termes
📂
sous-catégories

Cross-Attention

Mécanisme d'attention où les requéries proviennent d'une séquence tandis que clés et valeurs viennent d'une autre séquence différente.

2 termes
📂
sous-catégories

Transformer Scaling Laws

Principes empiriques décrivant comment la performance des transformers évolue avec la taille du modèle, des données et du calcul.

18 termes
📂
sous-catégories

Attention Head Analysis

Étude des rôles spécialisés des différentes têtes d'attention dans les transformers pour comprendre leur fonctionnement interne.

19 termes
📂
sous-catégories

Hierarchical Attention

Architecture d'attention organisée en plusieurs niveaux hiérarchiques pour traiter des données structurées complexes.

9 termes
🔍

Aucun résultat trouvé