Glosarium AI
Kamus lengkap Kecerdasan Buatan
Supervised Contrastive Learning (SupCon)
Méthode d'apprentissage profond qui combine apprentissage contrastif et étiquettes de classe pour améliorer la séparation des représentations dans l'espace d'embedding en regroupant les instances de même classe.
Espace d'embedding
Espace vectoriel de haute dimension où les données sont projetées pour capturer leurs caractéristiques sémantiques, permettant la mesure de similarité entre les instances.
Perte contrastive
Fonction de perte qui minimise la distance entre les paires positives et maximise celle entre les paires négatives dans l'espace d'embedding.
Paramètre de température
Hyperparamètre scalaire qui contrôle la concentration de la distribution des similarités, influençant la pénalité des échantillons difficiles dans l'apprentissage contrastif.
Projection de caractéristiques
Transformation non-linéaire appliquée aux caractéristiques extraites par l'encodeur avant le calcul de la perte contrastive.
Normalisation par batch
Technique de régularisation qui normalise les activations dans chaque mini-batch pour stabiliser l'entraînement et améliorer la convergence.
Apprentissage de représentations
Processus d'extraction automatique de caractéristiques pertinentes à partir de données brutes pour former des représentations compactes et informatives.
Discrimination d'instances
Tâche prétexte consistant à distinguer différentes instances dans un batch, fondement de l'apprentissage contrastif.
Tête de projection
Réseau neuronal additionnel appliqué après l'encodeur principal pour mapper les caractéristiques dans l'espace où la perte contrastive est calculée.
Échantillonnage conscient des classes
Stratégie d'échantillonnage qui garantit un équilibre des classes dans chaque batch pour optimiser l'apprentissage contrastif supervisé.
Mining de négatifs difficiles
Technique qui sélectionne spécifiquement les exemples négatifs les plus similaires à l'ancre pour améliorer la qualité de la frontière de décision.
Augmentation de caractéristiques
Application de transformations stochastiques aux données d'entrée pour créer différentes vues de la même instance, essentiel à l'apprentissage contrastif.
Apprentissage métrique
Paradigme d'apprentissage qui vise à apprendre une fonction de distance où les instances similaires sont proches et les dissimilaires sont éloignées.