AI Glossary
The complete dictionary of Artificial Intelligence
Autoencodeur Variationnel (VAE)
Architecture de réseau neuronal probabiliste qui apprend une distribution sur l'espace latent pour générer de nouvelles données en échantillonnant depuis cette distribution apprise.
Réparamétrisation (Reparameterization Trick)
Technique permettant la différenciation à travers des opérations stochastiques en séparant le bruit aléatoire des paramètres déterministes du modèle.
Evidence Lower Bound (ELBO)
Fonction objectif maximisée dans les VAEs qui combine la reconstruction des données et la régularisation de l'espace latent pour approximer la vraisemblance marginale.
Distribution Postérieure Approximative
Distribution probabiliste dans l'espace latent qui approxime la véritable distribution postérieure trop complexe à calculer directement.
Perte de Reconstruction
Terme de la fonction objectif VAE qui mesure la dissimilarité entre les données originales et leur reconstruction après passage dans l'espace latent.
Inférence Variationnelle
Méthode d'approximation de distributions postérieures complexes par optimisation plutôt que par échantillonnage direct, fondement théorique des VAEs.
Bruit Variationnel
Variable aléatoire gaussienne introduite lors de la réparamétrisation pour permettre la génération d'échantillons différents à partir des mêmes paramètres.
Modèle Génératif Probabiliste
Classe de modèles qui apprennent la distribution sous-jacente des données pour générer de nouveaux échantillons plausibles, incluant les VAEs comme représentant majeur.
Espace Manifold
Structure géométrique de faible dimension dans l'espace latent où les points encodés des données réelles se concentrent naturellement.
Régularisation Distributionnelle
Processus contraignant les distributions latentes à suivre une forme prédéfinie (généralement gaussienne standard) pour assurer un échantillonnage fluide dans l'espace latent.
Latent Traversal
Technique d'exploration de l'espace latent en faisant varier systématiquement une dimension latente pour observer son impact sur les données générées.
KL Annealing
Stratégie d'entraînement où le poids de la divergence KL est progressivement augmenté pour stabiliser l'apprentissage initial du VAE.
Posterior Collapse
Phénomène où l'encodeur ignore les données d'entrée et produit toujours la distribution a priori, réduisant le modèle à un simple décodeur.
Beta-VAE
Variante du VAE introduisant un poids beta pour contrôler le compromis entre reconstruction et régularisation, favorisant des représentations latentes plus interprétables.