KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
GAN-VAE Hybrid
Architecture combinant les réseaux adversaires génératifs (GANs) et les autoencodeurs variationnels (VAEs) pour bénéficier à la fois de la génération réaliste des GANs et de la structure latente organisée des VAEs.
Adversarial Variational Bayes
Méthode d'inférence variationnelle utilisant un discriminateur pour approximer la divergence KL, permettant un apprentissage plus stable des modèles génératifs complexes.
VAE-GAN Architecture
Structure hybride où un VAE fournit un espace latent structuré et un GAN assure la qualité visuelle des échantillons générés via un adversaire discriminant.
Latent Space Interpolation
Technique permettant de naviguer continuellement dans l'espace latent pour générer des transitions fluides entre différentes représentations, exploitant la structure continue des VAEs.
Reconstruction Loss
Fonction de coût mesurant la différence entre les données originales et leur reconstruction, essentielle dans les VAEs pour préserver l'information sémantique.
Adversarial Loss
Fonction d'objectif basée sur le jeu à somme nulle entre générateur et discriminateur, favorisant la génération d'échantillons indistinguables des données réelles.
Encoder-Decoder Framework
Architecture bidirectionnelle où l'encodeur compresse les données en représentation latente et le décodeur reconstruit les données à partir de cette représentation.
Variational Inference
Technique d'approximation des distributions de probabilité complexes en optimisant une famille de distributions plus simples pour approximer la posteriori vraie.
Generator Network
Composant des modèles GAN-VAE responsable de la synthèse de nouvelles données à partir de vecteurs latents, souvent implémenté comme un réseau de neurones profond.
Discriminator Network
Réseau adversaire entraîné à distinguer les échantillons réels des générations synthétiques, fournissant un signal d'apprentissage pour améliorer la qualité du générateur.
Mode Collapse Prevention
Stratégies dans les modèles hybrides pour éviter que le générateur ne produise qu'un nombre limité de modes de distribution, un problème courant dans les GANs purs.
Prior Distribution
Distribution a priori sur l'espace latent, typiquement une gaussienne standard dans les VAEs, servant de base pour l'échantillonnage et la régularisation.
Posterior Distribution
Distribution conditionnelle des variables latentes sachant les données observées, approximée dans les VAEs par un encodeur neuronal paramétré.
Reconstruction Regularization
Technique stabilisant l'entraînement des modèles hybrides en équilibrant les pertes adversariales et de reconstruction pour éviter la dégradation de la qualité.