Glossário IA
O dicionário completo da Inteligência Artificial
Autoencoder Variacional (VAE)
Arquitetura de rede neural generativa que aprende uma representação latente probabilística dos dados de entrada, permitindo a geração de novas amostras através da amostragem deste espaço latente.
Limite Inferior de Evidência (ELBO)
Objetivo de maximização em VAEs, representando o limite inferior da log-verossimilhança marginal dos dados, equilibrando a reconstrução e a regularização do espaço latente.
Posterior Aproximado (q(z|x))
Distribuição parametrizada pelo codificador que aproxima a verdadeira distribuição posterior das variáveis latentes condicionalmente aos dados de entrada no contexto dos VAEs.
Colapso Posterior
Problema em VAEs onde a distribuição latente aprendida se torna idêntica à distribuição a priori, tornando o codificador inútil e gerando amostras de baixa qualidade.
Distribuição A Priori (p(z))
Distribuição de probabilidade escolhida para as variáveis latentes em VAEs, tipicamente uma gaussiana padrão N(0, I), servindo como regularizador para o espaço latente.
Autoencoder Deconvolucional
Variante de VAE que utiliza camadas de deconvolução no decodificador para gerar dados estruturados como imagens, preservando melhor as relações espaciais.
Desentrelaçamento de Fatores
Propriedade desejada onde cada dimensão do espaço latente de um VAE captura um fator de variação semanticamente independente nos dados gerados.
Hierarquia de Variáveis Latentes
Arquitetura VAE avançada que utiliza múltiplos níveis de variáveis latentes para capturar características em diferentes escalas de abstração nos dados.
Fluxos Normalizadores em VAEs
Integração de transformações de fluxo normalizador para aumentar a flexibilidade da distribuição a priori ou do posterior aproximado, melhorando a qualidade generativa dos VAEs.