Glossário IA
O dicionário completo da Inteligência Artificial
Modelo de Difusão Espaço-Temporal
Arquitetura de deep learning que estende os modelos de difusão 2D para capturar dependências espaciais e temporais, permitindo a geração de sequências de vídeo coerentes quadro a quadro.
Remoção de Ruído de Vídeo por Difusão
Processo iterativo onde um modelo de difusão aprende a inverter a adição de ruído gaussiano em sequências de vídeo, reconstruindo assim vídeos claros a partir de dados corrompidos.
Latente Espaço-Temporal
Espaço de representação comprimido em um modelo de difusão de vídeo, codificando simultaneamente as características espaciais e a evolução temporal para uma geração eficiente.
Condicionamento Temporal
Técnica que guia a geração de vídeo injetando informações temporais (embeddings de tempo, máscaras de movimento) no processo de difusão para controlar o desenrolar da ação.
Modelagem Generativa Baseada em Score para Vídeo
Paradigma onde o modelo aprende o gradiente da distribuição de probabilidade logarítmica dos dados de vídeo (o score), usado para guiar o processo de amostragem por difusão.
Tensor de Ruído Espaço-Temporal
Ruído gaussiano estruturado em 4D (tempo, altura, largura, canais) adicionado progressivamente aos dados de vídeo durante a fase de difusão direta (forward diffusion) do modelo.
Resolução Temporal por Difusão
Capacidade de um modelo de difusão de vídeo de gerar sequências em altas taxas de quadros (fps) mantendo a fluidez e a coerência dos movimentos.
Orientação Classifier-Free para Vídeo
Método de controle da geração de vídeo que utiliza um modelo único treinado com e sem condicionamento (texto, imagem), permitindo uma orientação precisa sem um classificador externo.
U-Net 3D para Difusão de Vídeo
Arquitetura de rede neural convolucional com conexões residuais 3D, especificamente adaptada para a remoção de ruído de dados de vídeo em modelos de difusão.
Interpolação de Trajetórias Latentes
Técnica de geração de vídeo que consiste em interpolar entre pontos no espaço latente para criar transições suaves e lógicas entre diferentes estados ou ações.
Consistência Temporal por Difusão
Objetivo que visa garantir que os objetos e cenas geradas mantenham sua identidade e propriedades físicas através dos frames sucessivos do vídeo.
Modelo de Difusão Vídeo-para-Vídeo (Video-to-Video)
Aplicação de modelos de difusão para transformar um vídeo de entrada em um vídeo de saída estilizado, modificado ou aprimorado, mantendo a estrutura temporal.
Agendamento de Difusão Temporal
Estratégia que define a variância do ruído adicionado a cada passo de tempo no processo de difusão de vídeo, influenciando a qualidade e a velocidade de geração.
Decomposição do Movimento por Difusão
Método onde o modelo de difusão aprende a separar e modelar independentemente o plano de fundo estático e o movimento dos objetos em uma sequência de vídeo.
Autorregressão em Difusão de Vídeo
Abordagem híbrida que combina a geração autorregressiva (frame N+1 depende de N) com a remoção de ruído por difusão para melhorar a coerência a longo prazo.