🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Token Alignment

Processus par lequel le cross-attention apprend à aligner automatiquement les tokens ou segments significatifs entre deux séquences de longueurs ou structures différentes. Crucial pour les tâches de traduction où les correspondances ne sont pas bijectives.

📖
termes

Sparse Cross-Attention

Optimisation du cross-attention limitant les connexions attentionnelles à des sous-ensembles prédéfinis ou appris de positions pertinentes. Réduit la complexité computationnelle de O(n²) à O(n log n) ou O(n) pour les séquences longues.

📖
termes

Cross-Attention with Relative Position

Extension du cross-attention intégrant des informations de position relative entre les éléments des deux séquences plutôt que des positions absolues. Améliore la généralisation à des longueurs de séquences non vues pendant l'entraînement.

📖
termes

Adaptive Cross-Attention

Mécanisme d'attention dynamiquement ajustant sa focalisation basée sur le contexte ou l'état interne du modèle. Permet une allocation flexible des ressources attentionnelles selon la complexité ou l'importance des régions inter-séquences.

📖
termes

Cross-Attention Pooling

Technique d'agrégation utilisant le cross-attention pour pondérer et combiner sélectivement des caractéristiques d'une séquence cible basées sur une séquence de requêtes. Génère des représentations globales contextuellement informées pour la classification ou la régression.

📖
termes

Bilateral Cross-Attention

Architecture symétrique appliquant le cross-attention dans les deux directions entre deux séquences, permettant une interaction bidirectionnelle complète. Utilisée dans les tâches nécessitant un alignement mutuel comme le paraphrasage ou la correspondance sémantique.

📖
termes

Cross-Attention Regularization

Techniques de contrainte appliquées aux poids d'attention cross-attention pour encourager des propriétés désirables comme la sparsité, la diversité ou la cohérence temporelle. Améliore l'interprétabilité et la généralisation du modèle.

📖
termes

Memory-Augmented Cross-Attention

Extension du cross-attention intégrant une mémoire externe ou persistante accessible via des mécanismes d'attention. Permet de stocker et récupérer des informations au-delà de la fenêtre contextuelle immédiate pour des tâches de longue portée.

🔍

Aucun résultat trouvé