🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📂
sous-catégories

Auto-Attention Multi-Tête

Mécanisme fondamental permettant au modèle de se concentrer simultanément sur différentes positions de la séquence avec plusieurs représentations d'attention.

13 termes
📂
sous-catégories

Encodage Positionnel

Technique permettant d'intégrer des informations sur la position des tokens dans les séquences, car les Transformers ne possèdent pas de récurrence intrinsèque.

19 termes
📂
sous-catégories

Architecture Encoder-Decoder

Structure bidirectionnelle où l'encodeur traite la séquence d'entrée et le décodeur génère la séquence de sortie, utilisée dans les tâches de traduction.

5 termes
📂
sous-catégories

BERT et Modèles Masked LM

Modèles pré-entraînés avec objectif de masquage de tokens, révolutionnant le NLP avec des représentations contextuelles bidirectionnelles.

3 termes
📂
sous-catégories

GPT et Modèles Autorégressifs

Architecture basée sur le décodeur-only générant du texte token par token, prédictant le token suivant en fonction des précédents.

11 termes
📂
sous-catégories

Vision Transformers (ViT)

Adaptation des Transformers pour les tâches de vision par ordinateur, traitant les images comme des séquences de patches.

5 termes
📂
sous-catégories

Attention Linéaire et Efficace

Variants d'attention réduisant la complexité quadratique en complexité linéaire pour traiter des séquences plus longues efficacement.

3 termes
📂
sous-catégories

Transformers Multimodaux

Architecture unifiée traitant simultanément plusieurs modalités (texte, image, audio) dans un même espace de représentation.

9 termes
📂
sous-catégories

Fine-Tuning et Prompt Engineering

Techniques d'adaptation des modèles pré-entraînés à des tâches spécifiques avec peu de données d'entraînement.

7 termes
📂
sous-catégories

Interprétabilité des Mécanismes d'Attention

Étude et visualisation des poids d'attention pour comprendre les décisions du modèle et identifier les dépendances apprises.

14 termes
📂
sous-catégories

Transformers pour Audio

Application des architectures Transformer aux tâches de traitement audio, reconnaissance vocale et génération musicale.

18 termes
📂
sous-catégories

Sparse Attention

Variantes d'attention ne considérant qu'un sous-ensemble des positions pour réduire la complexité computationnelle et mémorielle.

0 termes
🔍

Aucun résultat trouvé