🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

Multi-view Contrastive Learning

Approche d'apprentissage auto-supervisé qui exploite différentes vues ou représentations du même échantillon pour apprendre des embeddings invariants aux transformations en maximisant l'accord entre les vues positives.

📖
terimler

View Generation

Processus de création de représentations multiples ou augmentées d'un même échantillon d'origine, essentiel pour générer les paires positives nécessaires à l'apprentissage contrastif multi-vue.

📖
terimler

Cross-modal Contrastive Learning

Extension du contrastive learning où les vues proviennent de modalités différentes (ex: image-texte, audio-vidéo), apprenant des représentations partagées entre différents types de données.

📖
terimler

Positive Pair Mining

Stratégie de sélection ou construction des paires positives dans l'espace multi-vue, souvent basée sur des augmentations données ou des corrélations inter-modalités préexistantes.

📖
terimler

Augmentation Pipeline

Séquence déterministe ou stochastique de transformations appliquées aux données brutes pour générer les vues multiples, crucialement importante pour la qualité des représentations apprises.

📖
terimler

Representation Alignment

Objectif de minimiser la distance entre les représentations de différentes vues du même échantillon, typiquement mesuré par la similarité cosinus ou distance euclidienne.

📖
terimler

Feature Consistency

Principe selon lequel les représentations apprises doivent rester stables across différentes vues de la même instance tout en variant suffisamment pour discriminer les instances différentes.

📖
terimler

View-specific Encoder

Architecture comportant des encodeurs distincts pour chaque type de vue, permettant de capturer les caractéristiques propres à chaque modalité avant la fusion dans l'espace partagé.

📖
terimler

Shared Representation Space

Espace latent commun où les représentations de toutes les vues sont projetées et comparées, facilitant l'apprentissage d'embeddings invariants et transférables.

📖
terimler

Contrastive Loss Function

Fonction objective maximisant la similarité entre paires positives tout en minimisant celle des paires négatives, typiquement implémentée via InfoNCE ou Triplet Loss.

📖
terimler

Batch-wise Contrastive Learning

Approche où les négatifs sont tirés du même batch d'entraînement, nécessitant de larges batch sizes pour un échantillonnage négatif efficace et diversifié.

📖
terimler

View Invariance

Propriété souhaitée des représentations apprises de rester constantes malgré les variations de vue, transformations ou corruptions appliquées aux données d'entrée.

📖
terimler

Cross-view Consistency

Mesure de la cohérence entre les prédictions ou représentations obtenues à partir de différentes vues du même échantillon, utilisée comme signal d'apprentissage auto-supervisé.

🔍

Sonuç bulunamadı