🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Modèle de Diffusion Spatio-Temporel

Architecture de deep learning étendant les modèles de diffusion 2D pour capturer les dépendances spatiales et temporelles, permettant la génération de séquences vidéo cohérentes frame par frame.

📖
termes

Débruitage Vidéo par Diffusion

Processus itératif où un modèle de diffusion apprend à inverser l'ajout de bruit gaussien sur des séquences vidéo, reconstruisant ainsi des vidéos claires à partir de données corrompues.

📖
termes

Latent Spatio-Temporel

Espace de représentation compressé dans un modèle de diffusion vidéo, encodant simultanément les caractéristiques spatiales et l'évolution temporelle pour une génération efficace.

📖
termes

Conditionnement Temporel

Technique guidant la génération vidéo en injectant des informations temporelles (embeddings de temps, masques de mouvement) dans le processus de diffusion pour contrôler le déroulement de l'action.

📖
termes

Score-Based Generative Modeling for Video

Paradigme où le modèle apprend le gradient de la distribution de probabilité log des données vidéo (le score), utilisé pour guider le processus d'échantillonnage par diffusion.

📖
termes

Tenseur de Bruit Spatio-Temporel

Bruit gaussien structuré en 4D (temps, hauteur, largeur, canaux) ajouté progressivement aux données vidéo durant la phase de forward diffusion du modèle.

📖
termes

Résolution Temporelle par Diffusion

Capacité d'un modèle de diffusion vidéo à générer des séquences à des fréquences d'images élevées (fps) tout en maintenant la fluidité et la cohérence des mouvements.

📖
termes

Guidage par Classifier-Free pour Vidéo

Méthode de contrôle de la génération vidéo qui utilise un modèle unique entraîné avec et sans conditionnement (texte, image), permettant un guidage précis sans classifier externe.

📖
termes

U-Net 3D pour Diffusion Vidéo

Architecture de réseau neuronal convolutif avec des connexions résiduelles en 3D, spécifiquement adaptée pour le débruitage de données vidéo dans les modèles de diffusion.

📖
termes

Interpolation de Trajectoires Latentes

Technique de génération vidéo consistant à interpoler entre des points dans l'espace latent pour créer des transitions fluides et logiques entre différents états ou actions.

📖
termes

Consistance Temporelle par Diffusion

Objectif visant à garantir que les objets et les scènes générées maintiennent leur identité et leurs propriétés physiques à travers les frames successives de la vidéo.

📖
termes

Modèle de Diffusion Vidéo-à-Vidéo (Video-to-Video)

Application des modèles de diffusion pour transformer une vidéo d'entrée en une vidéo de sortie stylisée, modifiée ou améliorée, tout en préservant la structure temporelle.

📖
termes

Schedule de Diffusion Temporel

Stratégie définissant la variance du bruit ajouté à chaque pas de temps dans le processus de diffusion vidéo, influençant la qualité et la vitesse de génération.

📖
termes

Décomposition du Mouvement par Diffusion

Méthode où le modèle de diffusion apprend à séparer et à modéliser indépendment l'arrière-plan statique et le mouvement des objets dans une séquence vidéo.

📖
termes

Auto-régression en Diffusion Vidéo

Approche hybride combinant la génération auto-régressive (frame N+1 dépend de N) avec le débruitage par diffusion pour améliorer la cohérence à long terme.

🔍

Aucun résultat trouvé