🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📂
उप-श्रेणियाँ

Self-Attention

Mécanisme fondamental permettant aux transformers de calculer dynamiquement l'importance relative de chaque élément dans une séquence par rapport aux autres.

2 शब्द
📂
उप-श्रेणियाँ

Multi-Head Attention

Extension du self-attention où plusieurs têtes d'attention opèrent en parallèle pour capturer différents types de relations dans les données.

4 शब्द
📂
उप-श्रेणियाँ

Positional Encoding

Technique incorporant l'information de position séquentielle dans les embeddings pour compenser l'absence de récurrence dans les transformers.

6 शब्द
📂
उप-श्रेणियाँ

Encoder-Decoder Architecture

Structure fondamentale des transformers originaux combinant un encodeur pour traiter l'entrée et un décodeur pour générer la sortie.

8 शब्द
📂
उप-श्रेणियाँ

BERT (Bidirectional Encoder Representations)

Famille de modèles pré-entraînés basés sur l'architecture encodeur-only avec compréhension bidirectionnelle du contexte.

10 शब्द
📂
उप-श्रेणियाँ

GPT (Generative Pre-trained Transformer)

Architecture décodeur-only optimisée pour la génération de texte auto-régressive, formant la base des grands modèles de langage.

5 शब्द
📂
उप-श्रेणियाँ

Vision Transformers (ViT)

Application des architectures transformer au traitement d'images en divisant les images en patches et les traitant comme des séquences.

11 शब्द
📂
उप-श्रेणियाँ

Sparse Attention Mechanisms

Variantes d'attention réduisant la complexité computationnelle en limitant les connexions entre éléments de la séquence.

2 शब्द
📂
उप-श्रेणियाँ

Cross-Attention

Mécanisme d'attention où les requéries proviennent d'une séquence tandis que clés et valeurs viennent d'une autre séquence différente.

2 शब्द
📂
उप-श्रेणियाँ

Transformer Scaling Laws

Principes empiriques décrivant comment la performance des transformers évolue avec la taille du modèle, des données et du calcul.

18 शब्द
📂
उप-श्रेणियाँ

Attention Head Analysis

Étude des rôles spécialisés des différentes têtes d'attention dans les transformers pour comprendre leur fonctionnement interne.

19 शब्द
📂
उप-श्रेणियाँ

Hierarchical Attention

Architecture d'attention organisée en plusieurs niveaux hiérarchiques pour traiter des données structurées complexes.

9 शब्द
🔍

कोई परिणाम नहीं मिला