Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Modèle de Diffusion Spatio-Temporel
Architecture de deep learning étendant les modèles de diffusion 2D pour capturer les dépendances spatiales et temporelles, permettant la génération de séquences vidéo cohérentes frame par frame.
Débruitage Vidéo par Diffusion
Processus itératif où un modèle de diffusion apprend à inverser l'ajout de bruit gaussien sur des séquences vidéo, reconstruisant ainsi des vidéos claires à partir de données corrompues.
Latent Spatio-Temporel
Espace de représentation compressé dans un modèle de diffusion vidéo, encodant simultanément les caractéristiques spatiales et l'évolution temporelle pour une génération efficace.
Conditionnement Temporel
Technique guidant la génération vidéo en injectant des informations temporelles (embeddings de temps, masques de mouvement) dans le processus de diffusion pour contrôler le déroulement de l'action.
Score-Based Generative Modeling for Video
Paradigme où le modèle apprend le gradient de la distribution de probabilité log des données vidéo (le score), utilisé pour guider le processus d'échantillonnage par diffusion.
Tenseur de Bruit Spatio-Temporel
Bruit gaussien structuré en 4D (temps, hauteur, largeur, canaux) ajouté progressivement aux données vidéo durant la phase de forward diffusion du modèle.
Résolution Temporelle par Diffusion
Capacité d'un modèle de diffusion vidéo à générer des séquences à des fréquences d'images élevées (fps) tout en maintenant la fluidité et la cohérence des mouvements.
Guidage par Classifier-Free pour Vidéo
Méthode de contrôle de la génération vidéo qui utilise un modèle unique entraîné avec et sans conditionnement (texte, image), permettant un guidage précis sans classifier externe.
U-Net 3D pour Diffusion Vidéo
Architecture de réseau neuronal convolutif avec des connexions résiduelles en 3D, spécifiquement adaptée pour le débruitage de données vidéo dans les modèles de diffusion.
Interpolation de Trajectoires Latentes
Technique de génération vidéo consistant à interpoler entre des points dans l'espace latent pour créer des transitions fluides et logiques entre différents états ou actions.
Consistance Temporelle par Diffusion
Objectif visant à garantir que les objets et les scènes générées maintiennent leur identité et leurs propriétés physiques à travers les frames successives de la vidéo.
Modèle de Diffusion Vidéo-à-Vidéo (Video-to-Video)
Application des modèles de diffusion pour transformer une vidéo d'entrée en une vidéo de sortie stylisée, modifiée ou améliorée, tout en préservant la structure temporelle.
Schedule de Diffusion Temporel
Stratégie définissant la variance du bruit ajouté à chaque pas de temps dans le processus de diffusion vidéo, influençant la qualité et la vitesse de génération.
Décomposition du Mouvement par Diffusion
Méthode où le modèle de diffusion apprend à séparer et à modéliser indépendment l'arrière-plan statique et le mouvement des objets dans une séquence vidéo.
Auto-régression en Diffusion Vidéo
Approche hybride combinant la génération auto-régressive (frame N+1 dépend de N) avec le débruitage par diffusion pour améliorer la cohérence à long terme.