Глоссарий ИИ
Полный словарь искусственного интеллекта
Autoencodeur Variationnel (VAE)
Architecture de réseau neuronal probabiliste qui apprend une distribution sur l'espace latent pour générer de nouvelles données en échantillonnant depuis cette distribution apprise.
Réparamétrisation (Reparameterization Trick)
Technique permettant la différenciation à travers des opérations stochastiques en séparant le bruit aléatoire des paramètres déterministes du modèle.
Evidence Lower Bound (ELBO)
Fonction objectif maximisée dans les VAEs qui combine la reconstruction des données et la régularisation de l'espace latent pour approximer la vraisemblance marginale.
Distribution Postérieure Approximative
Distribution probabiliste dans l'espace latent qui approxime la véritable distribution postérieure trop complexe à calculer directement.
Perte de Reconstruction
Terme de la fonction objectif VAE qui mesure la dissimilarité entre les données originales et leur reconstruction après passage dans l'espace latent.
Inférence Variationnelle
Méthode d'approximation de distributions postérieures complexes par optimisation plutôt que par échantillonnage direct, fondement théorique des VAEs.
Bruit Variationnel
Variable aléatoire gaussienne introduite lors de la réparamétrisation pour permettre la génération d'échantillons différents à partir des mêmes paramètres.
Modèle Génératif Probabiliste
Classe de modèles qui apprennent la distribution sous-jacente des données pour générer de nouveaux échantillons plausibles, incluant les VAEs comme représentant majeur.
Многообразие в пространстве
Геометрическая структура низкой размерности в латентном пространстве, где закодированные точки реальных данных естественным образом концентрируются.
Распределительная регуляризация
Процесс, заставляющий латентные распределения следовать предопределенной форме (обычно стандартному гауссиану) для обеспечения плавной выборки в латентном пространстве.
Латентное перемещение
Техника исследования латентного пространства путем систематического изменения одного латентного измерения для наблюдения его влияния на сгенерированные данные.
KL-отжиг
Стратегия обучения, при которой вес KL-расхождения постепенно увеличивается для стабилизации начального обучения VAE.
Коллапс апостериорной вероятности
Феномен, при котором кодировщик игнорирует входные данные и всегда создает априорное распределение, сводя модель к простому декодеру.
Beta-VAE
Вариант VAE, вводящий вес бета для контроля компромисса между реконструкцией и регуляризацией, способствуя более интерпретируемым латентным представлениям.