🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Multi-view Contrastive Learning

Approche d'apprentissage auto-supervisé qui exploite différentes vues ou représentations du même échantillon pour apprendre des embeddings invariants aux transformations en maximisant l'accord entre les vues positives.

📖
termer

View Generation

Processus de création de représentations multiples ou augmentées d'un même échantillon d'origine, essentiel pour générer les paires positives nécessaires à l'apprentissage contrastif multi-vue.

📖
termer

Cross-modal Contrastive Learning

Extension du contrastive learning où les vues proviennent de modalités différentes (ex: image-texte, audio-vidéo), apprenant des représentations partagées entre différents types de données.

📖
termer

Positive Pair Mining

Stratégie de sélection ou construction des paires positives dans l'espace multi-vue, souvent basée sur des augmentations données ou des corrélations inter-modalités préexistantes.

📖
termer

Augmentation Pipeline

Séquence déterministe ou stochastique de transformations appliquées aux données brutes pour générer les vues multiples, crucialement importante pour la qualité des représentations apprises.

📖
termer

Representation Alignment

Objectif de minimiser la distance entre les représentations de différentes vues du même échantillon, typiquement mesuré par la similarité cosinus ou distance euclidienne.

📖
termer

Feature Consistency

Principe selon lequel les représentations apprises doivent rester stables across différentes vues de la même instance tout en variant suffisamment pour discriminer les instances différentes.

📖
termer

View-specific Encoder

Architecture comportant des encodeurs distincts pour chaque type de vue, permettant de capturer les caractéristiques propres à chaque modalité avant la fusion dans l'espace partagé.

📖
termer

Shared Representation Space

Espace latent commun où les représentations de toutes les vues sont projetées et comparées, facilitant l'apprentissage d'embeddings invariants et transférables.

📖
termer

Contrastive Loss Function

Fonction objective maximisant la similarité entre paires positives tout en minimisant celle des paires négatives, typiquement implémentée via InfoNCE ou Triplet Loss.

📖
termer

Batch-wise Contrastive Learning

Approche où les négatifs sont tirés du même batch d'entraînement, nécessitant de larges batch sizes pour un échantillonnage négatif efficace et diversifié.

📖
termer

View Invariance

Propriété souhaitée des représentations apprises de rester constantes malgré les variations de vue, transformations ou corruptions appliquées aux données d'entrée.

📖
termer

Cross-view Consistency

Mesure de la cohérence entre les prédictions ou représentations obtenues à partir de différentes vues du même échantillon, utilisée comme signal d'apprentissage auto-supervisé.

🔍

Inga resultat hittades