Słownik AI
Kompletny słownik sztucznej inteligencji
Consistency Learning
Technique d'apprentissage semi-supervisé qui force un modèle à produire des prédictions cohérentes lorsque le même échantillon subit différentes transformations ou augmentations de données.
Temporal Ensembling
Méthode qui maintient des moyennes exponentielles des prédictions du modèle à travers les époques pour créer des cibles d'entraînement plus stables.
Virtual Adversarial Training
Technique générant des perturbations adversaires sur les entrées non étiquetées pour maximiser la divergence de prédictions, puis utilisant cette divergence comme signal de régularisation.
UDA (Unsupervised Data Augmentation)
Framework semi-supervisé combinant augmentation forte pour les données non étiquetées et seuillage de confiance pour filtrer les prédictions de faible qualité.
FixMatch
Algorithme unifié appliquant une augmentation faible et forte aux données non étiquetées, ne conservant que les prédictions à haute confiance comme cibles d'apprentissage.
Consistency Loss
Fonction de perte mesurant la divergence entre les prédictions sur différentes augmentations du même échantillon, typiquement utilisant KL divergence ou MSE.
Strong Augmentation
Transformations radicales appliquées aux données non étiquetées (RandAugment, CTAugment) pour tester la robustesse du modèle et améliorer la généralisation.
Weak Augmentation
Transformations légères appliquées aux données étiquetées (flip, crop) pour créer des variations subtiles tout en préservant le label original.
Confidence Threshold
Seuil probabiliste τ utilisé pour filtrer les pseudo-labels de faible confiance, généralement fixé entre 0.8 et 0.95 selon le dataset.
Entropy Minimization
Principe encourageant les prédictions sur les données non étiquetées à avoir une entropie faible, favorisant des décisions plus confiantes et moins incertaines.
Ramp-up Schedule
Fonction temporelle augmentant progressivement le poids de la perte de consistance au début de l'entraînement pour éviter les minima locaux suboptimaux.
CTAugment
Politique d'augmentation contrôlée par la consistance où les transformations sont sélectionnées dynamiquement basées sur leur capacité à maintenir la cohérence des prédictions.
Sharpening
Opération appliquée aux distributions de probabilité pour accentuer les prédictions de haute confiance et réduire l'incertitude dans l'apprentissage par cohérence.
EMA (Exponential Moving Average)
Mécanisme de mise à jour lente des poids du modèle enseignant, utilisant α = 0.99 comme paramètre typique pour créer des cibles d'entraînement stables.