🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Autoencodeur Variationnel (VAE)

Architecture de réseau neuronal probabiliste qui apprend une distribution sur l'espace latent pour générer de nouvelles données en échantillonnant depuis cette distribution apprise.

📖
termer

Réparamétrisation (Reparameterization Trick)

Technique permettant la différenciation à travers des opérations stochastiques en séparant le bruit aléatoire des paramètres déterministes du modèle.

📖
termer

Evidence Lower Bound (ELBO)

Fonction objectif maximisée dans les VAEs qui combine la reconstruction des données et la régularisation de l'espace latent pour approximer la vraisemblance marginale.

📖
termer

Distribution Postérieure Approximative

Distribution probabiliste dans l'espace latent qui approxime la véritable distribution postérieure trop complexe à calculer directement.

📖
termer

Perte de Reconstruction

Terme de la fonction objectif VAE qui mesure la dissimilarité entre les données originales et leur reconstruction après passage dans l'espace latent.

📖
termer

Inférence Variationnelle

Méthode d'approximation de distributions postérieures complexes par optimisation plutôt que par échantillonnage direct, fondement théorique des VAEs.

📖
termer

Bruit Variationnel

Variable aléatoire gaussienne introduite lors de la réparamétrisation pour permettre la génération d'échantillons différents à partir des mêmes paramètres.

📖
termer

Modèle Génératif Probabiliste

Classe de modèles qui apprennent la distribution sous-jacente des données pour générer de nouveaux échantillons plausibles, incluant les VAEs comme représentant majeur.

📖
termer

Espace Manifold

Structure géométrique de faible dimension dans l'espace latent où les points encodés des données réelles se concentrent naturellement.

📖
termer

Régularisation Distributionnelle

Processus contraignant les distributions latentes à suivre une forme prédéfinie (généralement gaussienne standard) pour assurer un échantillonnage fluide dans l'espace latent.

📖
termer

Latent Traversal

Technique d'exploration de l'espace latent en faisant varier systématiquement une dimension latente pour observer son impact sur les données générées.

📖
termer

KL Annealing

Stratégie d'entraînement où le poids de la divergence KL est progressivement augmenté pour stabiliser l'apprentissage initial du VAE.

📖
termer

Posterior Collapse

Phénomène où l'encodeur ignore les données d'entrée et produit toujours la distribution a priori, réduisant le modèle à un simple décodeur.

📖
termer

Beta-VAE

Variante du VAE introduisant un poids beta pour contrôler le compromis entre reconstruction et régularisation, favorisant des représentations latentes plus interprétables.

🔍

Inga resultat hittades