🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

Supervised Contrastive Learning (SupCon)

Méthode d'apprentissage profond qui combine apprentissage contrastif et étiquettes de classe pour améliorer la séparation des représentations dans l'espace d'embedding en regroupant les instances de même classe.

📖
terimler

Espace d'embedding

Espace vectoriel de haute dimension où les données sont projetées pour capturer leurs caractéristiques sémantiques, permettant la mesure de similarité entre les instances.

📖
terimler

Perte contrastive

Fonction de perte qui minimise la distance entre les paires positives et maximise celle entre les paires négatives dans l'espace d'embedding.

📖
terimler

Paramètre de température

Hyperparamètre scalaire qui contrôle la concentration de la distribution des similarités, influençant la pénalité des échantillons difficiles dans l'apprentissage contrastif.

📖
terimler

Projection de caractéristiques

Transformation non-linéaire appliquée aux caractéristiques extraites par l'encodeur avant le calcul de la perte contrastive.

📖
terimler

Normalisation par batch

Technique de régularisation qui normalise les activations dans chaque mini-batch pour stabiliser l'entraînement et améliorer la convergence.

📖
terimler

Apprentissage de représentations

Processus d'extraction automatique de caractéristiques pertinentes à partir de données brutes pour former des représentations compactes et informatives.

📖
terimler

Discrimination d'instances

Tâche prétexte consistant à distinguer différentes instances dans un batch, fondement de l'apprentissage contrastif.

📖
terimler

Tête de projection

Réseau neuronal additionnel appliqué après l'encodeur principal pour mapper les caractéristiques dans l'espace où la perte contrastive est calculée.

📖
terimler

Échantillonnage conscient des classes

Stratégie d'échantillonnage qui garantit un équilibre des classes dans chaque batch pour optimiser l'apprentissage contrastif supervisé.

📖
terimler

Mining de négatifs difficiles

Technique qui sélectionne spécifiquement les exemples négatifs les plus similaires à l'ancre pour améliorer la qualité de la frontière de décision.

📖
terimler

Augmentation de caractéristiques

Application de transformations stochastiques aux données d'entrée pour créer différentes vues de la même instance, essentiel à l'apprentissage contrastif.

📖
terimler

Apprentissage métrique

Paradigme d'apprentissage qui vise à apprendre une fonction de distance où les instances similaires sont proches et les dissimilaires sont éloignées.

🔍

Sonuç bulunamadı