AI 용어집
인공지능 완전 사전
Modèle de Diffusion Spatio-Temporel
Architecture de deep learning étendant les modèles de diffusion 2D pour capturer les dépendances spatiales et temporelles, permettant la génération de séquences vidéo cohérentes frame par frame.
Débruitage Vidéo par Diffusion
Processus itératif où un modèle de diffusion apprend à inverser l'ajout de bruit gaussien sur des séquences vidéo, reconstruisant ainsi des vidéos claires à partir de données corrompues.
Latent Spatio-Temporel
Espace de représentation compressé dans un modèle de diffusion vidéo, encodant simultanément les caractéristiques spatiales et l'évolution temporelle pour une génération efficace.
Conditionnement Temporel
Technique guidant la génération vidéo en injectant des informations temporelles (embeddings de temps, masques de mouvement) dans le processus de diffusion pour contrôler le déroulement de l'action.
Score-Based Generative Modeling for Video
Paradigme où le modèle apprend le gradient de la distribution de probabilité log des données vidéo (le score), utilisé pour guider le processus d'échantillonnage par diffusion.
Tenseur de Bruit Spatio-Temporel
Bruit gaussien structuré en 4D (temps, hauteur, largeur, canaux) ajouté progressivement aux données vidéo durant la phase de forward diffusion du modèle.
Résolution Temporelle par Diffusion
Capacité d'un modèle de diffusion vidéo à générer des séquences à des fréquences d'images élevées (fps) tout en maintenant la fluidité et la cohérence des mouvements.
Guidage par Classifier-Free pour Vidéo
Méthode de contrôle de la génération vidéo qui utilise un modèle unique entraîné avec et sans conditionnement (texte, image), permettant un guidage précis sans classifier externe.
3D U-Net for Video Diffusion
Convolutional neural network architecture with 3D residual connections, specifically adapted for video denoising in diffusion models.
Latent Trajectory Interpolation
Video generation technique consisting of interpolating between points in latent space to create smooth and logical transitions between different states or actions.
Temporal Consistency through Diffusion
Objective aiming to ensure that generated objects and scenes maintain their identity and physical properties across successive frames of the video.
Video-to-Video Diffusion Model
Application of diffusion models to transform an input video into a stylized, modified, or enhanced output video, while preserving the temporal structure.
Temporal Diffusion Schedule
Strategy defining the variance of noise added at each time step in the video diffusion process, influencing generation quality and speed.
Motion Decomposition by Diffusion
Method where the diffusion model learns to separately isolate and model the static background and object motion in a video sequence.
Auto-regression in Video Diffusion
Hybrid approach combining auto-regressive generation (frame N+1 depends on N) with diffusion denoising to improve long-term coherence.