🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📖
शब्द

Vision Transformer (ViT)

Architecture neuronale appliquant les mécanismes Transformer au traitement d'images en divisant les images en séquences de patches pour un traitement séquentiel.

📖
शब्द

Patch Embedding

Processus de conversion des patches d'images en vecteurs d'embeddings de dimension fixe par projection linéaire pour alimenter le Transformer.

📖
शब्द

Class Token

Token spécial ajouté à la séquence d'embeddings dont la représentation finale après passage dans le Transformer sert à la classification de l'image.

📖
शब्द

Multi-Head Self-Attention

Mécanisme permettant au modèle de calculer simultanément plusieurs représentations d'attention pour capturer différentes relations entre les patches d'image.

📖
शब्द

Transformer Encoder

Bloc fondamental composé de couches de self-attention et de réseaux feed-forward alternant avec normalisation et connexions résiduelles.

📖
शब्द

Image Patch Tokenization

Processus de découpage d'une image en patches non chevauchants de taille fixe typiquement 16x16 pixels convertis ensuite en tokens séquentiels.

📖
शब्द

Attention Map Visualization

Technique d'interprétabilité visualisant les poids d'attention entre patches pour comprendre les régions d'image sur lesquelles le modèle se concentre.

📖
शब्द

Pre-training on Large Datasets

Phase d'entraînement initial sur des millions d'images comme ImageNet-21k pour apprendre des représentations visuelles générales avant fine-tuning.

📖
शब्द

Patch Size Hyperparameter

Paramètre crucial définissant la dimension des patches d'images influençant directement la complexité computationnelle et les performances du modèle.

📖
शब्द

Token-to-Patch Reconstruction

Processus inverse dans les tâches génératives où les tokens sont reconvertis en patches image pour reconstruire l'image originale.

📖
शब्द

Hierarchical Vision Transformer

Variante de ViT utilisant une structure pyramidale avec des tailles de patches variables pour capturer des caractéristiques multi-échelles.

📖
शब्द

Self-Supervised ViT Pre-training

Méthodes d'entraînement non supervisé comme DINO ou MAE exploitant la structure Transformer pour apprendre sans annotations.

📖
शब्द

Cross-Attention in Multi-Modal ViT

Mécanisme étendant ViT pour traiter conjointement images et texte en utilisant l'attention entre modalités différentes.

📖
शब्द

Computational Complexity O(n²)

Complexité quadratique du self-attention par rapport au nombre de patches constituant la limitation principale des Vision Transformers.

🔍

कोई परिणाम नहीं मिला