Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Autoencodeur Adversarial
Architecture de réseau de neurones combinant un autoencodeur et un réseau génératif adversarial pour forcer l'espace latent à suivre une distribution spécifique, améliorant ainsi la qualité des reconstructions et des générations.
Espace Latent Adversarial
Représentation compressée des données dans un autoencodeur adversarial, dont la distribution est régularisée par un discriminateur pour s'approcher d'une distribution cible (ex: gaussienne), favorisant une meilleure généralisation.
Discriminateur de Distribution
Réseau de neurones dans un autoencodeur adversarial chargé de distinguer les encodages de données réelles d'échantillons tirés d'une distribution a priori, forçant ainsi l'encodeur à produire des représentations latentes réalistes.
Autoencodeur Variationnel Adversarial (AAVA)
Modèle hybride intégrant la régularisation variationnelle d'un VAE avec la contrainte distributionnelle d'un GAN, où le discriminateur agit sur les échantillons latents pour affiner l'espace de représentation.
Bruit Adversarial
Perturbations intentionnellement conçues pour tromper le discriminateur d'un autoencodeur adversarial, utilisées lors de l'entraînement pour renforcer la robustesse de l'encodeur.
Divergence f-Jensen-Shannon
Métrique de divergence généralisée utilisée pour mesurer l'écart entre la distribution latente apprise et la distribution cible dans les autoencodeurs adversariaux, offrant plus de flexibilité que la divergence KL classique.
Mode Collapse dans les Autoencodeurs
Phénomène où l'encodeur, en tentant de tromper le discriminateur, mappe des entrées distinctes vers un nombre limité de représentations latentes, réduisant la diversité de l'espace latent.
Cycle-Consistent Adversarial Autoencoder
Variante d'autoencodeur adversarial où une contrainte de consistance de cycle est ajoutée, garantissant que la reconstruction après passage par l'espace latent et retour est identique à l'entrée originale.
Encodeur-Discriminateur Conjoint
Stratégie d'entraînement où les paramètres de l'encodeur et du discriminateur sont partiellement partagés ou optimisés conjointement pour stabiliser l'apprentissage et améliorer la régularisation de l'espace latent.
Espace d'Embedding Structuré
Objectif des autoencodeurs adversariaux visant à créer un espace latent non seulement de faible dimension mais aussi doté d'une structure sémantique exploitable, grâce à la contrainte distributionnelle.
Reconstruction Adversarialement Régularisée
Processus de reconstruction de données dans un autoencodeur où la perte de reconstruction est complétée par une pénalité adversariale, évitant le sur-apprentissage et favorisant des représentations plus générales.
Autoencodeur Adversarial à Condition (AAAC)
Extension de l'autoencodeur adversarial où l'encodage et la génération sont conditionnés par des informations auxiliaires (ex: étiquettes de classe), permettant un contrôle explicite sur les représentations latentes générées.
Wasserstein Adversarial Autoencoder
Implémentation d'un autoencodeur adversarial utilisant la perte de Wasserstein pour le discriminateur, ce qui améliore la stabilité de l'entraînement et fournit une mesure plus significative de la convergence des distributions latentes.
Débruitage par Autoencodage Adversarial
Application où un autoencodeur adversarial est entraîné à reconstruire des données propres à partir d'entrées bruitées, le discriminateur s'assurant que les représentations latentes des données débruitées suivent la distribution des données propres.
Séparabilité Adversariale des Classes
Propriété émergente dans certains autoencodeurs adversariaux où l'espace latent s'organise de manière à séparer les différentes classes de données, facilitant les tâches de classification en aval.