🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📂
alt kategoriler

Auto-Attention Multi-Tête

Mécanisme fondamental permettant au modèle de se concentrer simultanément sur différentes positions de la séquence avec plusieurs représentations d'attention.

13 terimler
📂
alt kategoriler

Encodage Positionnel

Technique permettant d'intégrer des informations sur la position des tokens dans les séquences, car les Transformers ne possèdent pas de récurrence intrinsèque.

19 terimler
📂
alt kategoriler

Architecture Encoder-Decoder

Structure bidirectionnelle où l'encodeur traite la séquence d'entrée et le décodeur génère la séquence de sortie, utilisée dans les tâches de traduction.

5 terimler
📂
alt kategoriler

BERT et Modèles Masked LM

Modèles pré-entraînés avec objectif de masquage de tokens, révolutionnant le NLP avec des représentations contextuelles bidirectionnelles.

3 terimler
📂
alt kategoriler

GPT et Modèles Autorégressifs

Architecture basée sur le décodeur-only générant du texte token par token, prédictant le token suivant en fonction des précédents.

11 terimler
📂
alt kategoriler

Vision Transformers (ViT)

Adaptation des Transformers pour les tâches de vision par ordinateur, traitant les images comme des séquences de patches.

5 terimler
📂
alt kategoriler

Attention Linéaire et Efficace

Variants d'attention réduisant la complexité quadratique en complexité linéaire pour traiter des séquences plus longues efficacement.

3 terimler
📂
alt kategoriler

Transformers Multimodaux

Architecture unifiée traitant simultanément plusieurs modalités (texte, image, audio) dans un même espace de représentation.

9 terimler
📂
alt kategoriler

Fine-Tuning et Prompt Engineering

Techniques d'adaptation des modèles pré-entraînés à des tâches spécifiques avec peu de données d'entraînement.

7 terimler
📂
alt kategoriler

Interprétabilité des Mécanismes d'Attention

Étude et visualisation des poids d'attention pour comprendre les décisions du modèle et identifier les dépendances apprises.

14 terimler
📂
alt kategoriler

Transformers pour Audio

Application des architectures Transformer aux tâches de traitement audio, reconnaissance vocale et génération musicale.

18 terimler
📂
alt kategoriler

Sparse Attention

Variantes d'attention ne considérant qu'un sous-ensemble des positions pour réduire la complexité computationnelle et mémorielle.

0 terimler
🔍

Sonuç bulunamadı