🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📂
उप-श्रेणियाँ

Mécanisme d'Attention

Fondement mathématique permettant aux modèles de pondérer l'importance relative des éléments dans une séquence de données.

5 शब्द
📂
उप-श्रेणियाँ

Self-Attention

Mécanisme où chaque élément d'une séquence calcule son attention par rapport à tous les autres éléments de la même séquence.

0 शब्द
📂
उप-श्रेणियाँ

Multi-Head Attention

Extension de l'attention utilisant plusieurs têtes d'attention en parallèle pour capturer différents types de relations.

3 शब्द
📂
उप-श्रेणियाँ

Positional Encoding

Technique d'incorporation de la position séquentielle des éléments dans les embeddings sans utiliser de RNN.

12 शब्द
📂
उप-श्रेणियाँ

Architecture Encoder-Decoder

Structure fondamentale des Transformers séparant le traitement d'entrée (encodeur) et la génération de sortie (décodeur).

2 शब्द
📂
उप-श्रेणियाँ

Attention Scaling

Normalisation par racine carrée de la dimensionnalité pour stabiliser l'entraînement et éviter les gradients explosifs.

14 शब्द
📂
उप-श्रेणियाँ

Cross-Attention

Mécanisme d'attention entre deux séquences différentes, utilisé dans les tâches de traduction et multimodales.

8 शब्द
📂
उप-श्रेणियाँ

Sparse Attention

Variante d'attention calculée uniquement sur un sous-ensemble de positions pour réduire la complexité computationnelle.

3 शब्द
📂
उप-श्रेणियाँ

Attention Masks

Mécanismes de contrôle permettant de masquer certaines positions pendant le calcul d'attention pour éviter les fuites d'information.

9 शब्द
📂
उप-श्रेणियाँ

Vision Transformers

Adaptation de l'architecture Transformer aux tâches de vision par ordinateur en traitant les images comme des séquences de patches.

9 शब्द
📂
उप-श्रेणियाँ

Efficient Attention

Ensemble d'optimisations visant à réduire la complexité quadratique de l'attention standard pour des séquences plus longues.

2 शब्द
📂
उप-श्रेणियाँ

Hierarchical Attention

Structure d'attention multi-niveaux capturant des relations à différentes échelles hiérarchiques dans les données.

12 शब्द
🔍

कोई परिणाम नहीं मिला