AI 용어집
인공지능 완전 사전
Score-Based Models
Approche générative qui apprend le gradient de la log-densité de probabilité des données pour guider un processus de diffusion inverse. Ces modèles transforment le problème de modélisation de densité en un problème de régression du score.
Stochastic Differential Equations (SDEs)
Équations différentielles stochastiques qui décrivent l'évolution temporelle d'un processus de diffusion forward ajoutant progressivement du bruit aux données. La résolution de l'SDE inverse permet de générer de nouvelles échantillons à partir du bruit.
Noise Conditional Score Networks (NCSN)
Architecture de réseau neuronal qui conditionne l'estimation du score sur le niveau de bruit actuel, permettant une modélisation efficace à différentes échelles de perturbation. Cette approche facilite l'apprentissage de scores stables à travers tout le processus de diffusion.
Annealed Langevin Dynamics
Variante améliorée de la dynamique de Langevin qui utilise une séquence de niveaux de bruit décroissants pour stabiliser l'échantillonnage. Cette technique permet une exploration plus efficace de l'espace des données et évite les minima locaux.
Forward Process
Processus de diffusion qui ajoute itérativement du bruit gaussien aux données pour les transformer progressivement en distribution normale standard. Ce processus est entièrement déterministe et sert de base à l'apprentissage du score.
Reverse Process
Processus de génération qui utilise le score appris pour inverser la diffusion et reconstruire les données à partir du bruit. Ce processus stochastique est guidé par les gradients de densité estimés pour produire des échantillons réalistes.
Log Density Gradient
Quantité mathématique fondamentale dans les modèles basés sur les scores, représentant la dérivée partielle du logarithme de la densité de probabilité. Ce gradient est directement appris par le réseau neuronal pour guider la génération.
Perturbation Kernel
Fonction qui définit comment le bruit est ajouté aux données durant le processus de diffusion forward, typiquement un noyau gaussien avec une variance dépendant du temps. Le choix du kernel influence directement la stabilité et l'efficacité de l'apprentissage.
Tweedie's Formula
Relation mathématique fondamentale qui connecte le gradient de la log-densité au signal original dans les modèles de débruitage gaussien. Cette formule justifie théoriquement l'utilisation des scores pour la déconvolution et la génération.
Probability Flow ODE
Équation différentielle ordinaire déterministe qui partage la même distribution marginale que le processus SDE stochastique. Cette ODE permet un échantillonnage plus rapide et déterministe tout en maintenant la qualité générative.
DDPM (Denoising Diffusion Probabilistic Models)
Classe de modèles génératifs qui formulent la diffusion comme un processus probabiliste variational avec des paramètres analytiques pour les transitions forward et reverse. Ces modèles unifient l'approche par scores et les modèles de diffusion probabilistes.
Continuous Normalizing Flows
Extension des flows normaux au domaine continu utilisant des équations différentielles ordinaires pour transformer les distributions. Cette approche théoriquement connectée aux modèles basés sur les scores offre une interprétation géométrique du processus de génération.