قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
Échantillonnage de Gibbs
Algorithme MCMC qui génère des échantillons d'une distribution multivariée en échantillonnant conditionnellement chaque variable étant données les autres, facilitant l'inférence dans les réseaux Bayésiens complexes.
Algorithme Metropolis-Hastings
Méthode d'échantillonnage MCMC qui génère une chaîne de Markov avec une distribution stationnaire cible, utilisant un ratio d'acceptation pour décider de conserver ou rejeter les propositions.
Chaînes de Markov Monte Carlo (MCMC)
Classe d'algorithmes d'échantillonnage qui construisent des chaînes de Markov pour approximer des distributions de probabilités complexes lorsque les méthodes exactes sont calculatoirement impossibles.
Échantillonnage par importance
Technique Monte Carlo qui estime des espérances sous une distribution cible en utilisant des échantillons d'une distribution de proposition avec des poids d'importance pour corriger le biais.
Approximation de champ moyen
Méthode variationnelle qui factorise la distribution postérieure en produit de distributions univariées indépendantes, simplifiant drastiquement les calculs au prix d'une perte de corrélation.
Divergence de Kullback-Leibler
Mesure asymétrique de dissimilarité entre deux distributions de probabilité, utilisée comme fonction objectif dans l'inférence variationnelle pour quantifier l'écart entre approximation et cible.
Échantillonnage de rejet
Méthode d'échantillonnage direct qui génère des points d'une distribution cible en rejetant sélectivement des échantillons d'une distribution enveloppe plus simple à échantillonner.
Hamiltonien Monte Carlo
Algorithme MCMC avancé utilisant la mécanique hamiltonienne et des gradients pour proposer des états lointains avec haute probabilité d'acceptation, réduisant l'autocorrélation des échantillons.
Loopy Belief Propagation
Algorithme itératif qui applique le passage de messages sur des graphes avec cycles, convergeant souvent vers une bonne approximation des marginales malgré l'absence de garanties théoriques.
Inférence variationnelle stochastique
Extension de l'inférence variationnelle utilisant des mini-batchs de données et des estimations Monte Carlo du gradient, permettant de traiter des jeux de données massifs.
Échantillonnage par tranche
Technique MCMC qui échantillonne conditionnellement des sous-ensembles de variables (tranches) tout en maintenant les autres fixes, améliorant l'efficacité pour des modèles haute dimension.
Approximation de Laplace
Méthode qui approxime une distribution complexe par une distribution gaussienne centrée sur le mode, utilisant la matrice Hessienne au point mode pour capturer la forme locale.
No-U-Turn Sampler (NUTS)
Algorithme MCMC adaptatif qui détermine automatiquement la longueur optimale des trajectoires Hamiltoniennes en détectant les retours en arrière, éliminant le réglage manuel.
Propagation de croyance
Algorithme exact d'inférence sur les réseaux Bayésiens arborescents utilisant le passage de messages local pour calculer efficacement les distributions marginales des variables cachées.
Échantillonnage préférentiel
Variante de l'échantillonnage par importance utilisant une famille de distributions de proposition paramétrées, optimisées pour minimiser la variance des estimateurs.
Approximation variationnelle structurée
Extension de l'inférence variationnelle préservant certaines structures de dépendances entre variables dans la distribution approchée, offrant un compromis entre précision et complexité.
Inférence par échantillonnage séquentiel
Méthodes Monte Carlo adaptatives qui raffinent progressivement l'approximation de la distribution postérieure en utilisant des techniques de rééchantillonnage et de mutation.