Thuật ngữ AI
Từ điển đầy đủ về Trí tuệ nhân tạo
Multi-view Contrastive Learning
Approche d'apprentissage auto-supervisé qui exploite différentes vues ou représentations du même échantillon pour apprendre des embeddings invariants aux transformations en maximisant l'accord entre les vues positives.
View Generation
Processus de création de représentations multiples ou augmentées d'un même échantillon d'origine, essentiel pour générer les paires positives nécessaires à l'apprentissage contrastif multi-vue.
Cross-modal Contrastive Learning
Extension du contrastive learning où les vues proviennent de modalités différentes (ex: image-texte, audio-vidéo), apprenant des représentations partagées entre différents types de données.
Positive Pair Mining
Stratégie de sélection ou construction des paires positives dans l'espace multi-vue, souvent basée sur des augmentations données ou des corrélations inter-modalités préexistantes.
Augmentation Pipeline
Séquence déterministe ou stochastique de transformations appliquées aux données brutes pour générer les vues multiples, crucialement importante pour la qualité des représentations apprises.
Representation Alignment
Objectif de minimiser la distance entre les représentations de différentes vues du même échantillon, typiquement mesuré par la similarité cosinus ou distance euclidienne.
Feature Consistency
Principe selon lequel les représentations apprises doivent rester stables across différentes vues de la même instance tout en variant suffisamment pour discriminer les instances différentes.
View-specific Encoder
Architecture comportant des encodeurs distincts pour chaque type de vue, permettant de capturer les caractéristiques propres à chaque modalité avant la fusion dans l'espace partagé.
Shared Representation Space
Espace latent commun où les représentations de toutes les vues sont projetées et comparées, facilitant l'apprentissage d'embeddings invariants et transférables.
Contrastive Loss Function
Fonction objective maximisant la similarité entre paires positives tout en minimisant celle des paires négatives, typiquement implémentée via InfoNCE ou Triplet Loss.
Batch-wise Contrastive Learning
Approche où les négatifs sont tirés du même batch d'entraînement, nécessitant de larges batch sizes pour un échantillonnage négatif efficace et diversifié.
View Invariance
Propriété souhaitée des représentations apprises de rester constantes malgré les variations de vue, transformations ou corruptions appliquées aux données d'entrée.
Cross-view Consistency
Mesure de la cohérence entre les prédictions ou représentations obtenues à partir de différentes vues du même échantillon, utilisée comme signal d'apprentissage auto-supervisé.