AI 詞彙表
人工智能完整詞典
Apprentissage par contraste
Méthode d'apprentissage auto-supervisé qui apprend des représentations en maximisant la similarité entre échantillons augmentés de la même image tout en minimisant celle entre différentes images.
Augmentation de données
Technique consistant à créer des variations artificielles des données d'entraînement par des transformations préservant le label sémantique pour améliorer la robustesse du modèle.
Paires positives
Échantillons provenant de la même image originale mais ayant subi des augmentations différentes, considérés comme similaires dans l'apprentissage par contraste.
Paires négatives
Échantillons provenant d'images différentes utilisés pour repousser les représentations dans l'espace d'embedding pendant l'apprentissage par contraste.
Perte NT-Xent
Fonction de perte normalisée à échelle de température utilisée dans l'apprentissage par contraste pour maximiser l'accord entre vues augmentées positives.
Tête de projection
Couche de réseau neuronal additionnelle qui mappe les représentations apprises vers un espace où la perte de contraste est appliquée, souvent supprimée lors de l'inférence.
Paramètre de température
Hyperparamètre scalaire dans la perte de contraste qui contrôle la concentration de la distribution sur les échantillons négatifs, affectant la séparation des classes.
MoCo
Framework d'apprentissage par contraste utilisant une queue dynamique et un encodeur par élan pour maintenir un grand nombre de négatifs cohérents.
SimCLR
Framework simple d'apprentissage par contraste qui obtient des résultats SOTA en combinant augmentation forte, encodeur puissant et tête de projection non-linéaire.
BYOL
Méthode d'apprentissage par contraste sans paires négatives utilisant deux réseaux avec mise à jour par élan et prédiction de cible mobile.
Espace d'embedding
Epace vectoriel de dimension réduite où les échantillons similaires sont projetés proches les uns des autres par l'apprentissage par contraste.
Discrimination d'instance
Tâche prétexte traitant chaque instance comme une classe distincte, obligeant le modèle à apprendre des représentations uniques pour chaque échantillon.
Queue dynamique
Structure de données FIFO dans MoCo qui maintient un ensemble de représentations d'échantillons négatifs pour un calcul efficace de la perte de contraste.
Mise à jour par élan
Stratégie de mise à jour des paramètres du réseau cible dans BYOL et MoCo utilisant une moyenne mobile exponentielle des poids du réseau en ligne.
Augmentation forte
Combinaison de multiples transformations de données appliquées séquentiellement pour créer des vues très différentes mais sémantiquement équivalentes.
Contrastive Predictive Coding
Framework général d'apprentissage par contraste qui prédit les représentations futures à partir des contextes passés dans les données séquentielles.
InfoNCE
Borne inférieure sur l'information mutuelle utilisée comme objectif dans l'apprentissage par contraste pour maximiser l'accord entre vues positives.