Glossário IA
O dicionário completo da Inteligência Artificial
Autoencoder Variacional (VAE)
Arquitetura de rede neural probabilística que aprende uma distribuição no espaço latente para gerar novos dados amostrando a partir dessa distribuição aprendida.
Truque de Reparametrização (Reparameterization Trick)
Técnica que permite a diferenciação através de operações estocásticas, separando o ruído aleatório dos parâmetros determinísticos do modelo.
Limite Inferior da Evidência (ELBO)
Função objetivo maximizada em VAEs que combina a reconstrução dos dados e a regularização do espaço latente para aproximar a verossimilhança marginal.
Distribuição Posterior Aproximada
Distribuição probabilística no espaço latente que aproxima a verdadeira distribuição posterior, que é muito complexa para ser calculada diretamente.
Perda de Reconstrução
Termo da função objetivo do VAE que mede a dissimilaridade entre os dados originais e sua reconstrução após a passagem pelo espaço latente.
Inferência Variacional
Método de aproximação de distribuições posteriores complexas por otimização em vez de amostragem direta, fundamento teórico dos VAEs.
Ruído Variacional
Variável aleatória gaussiana introduzida durante a reparametrização para permitir a geração de amostras diferentes a partir dos mesmos parâmetros.
Modelo Generativo Probabilístico
Classe de modelos que aprendem a distribuição subjacente dos dados para gerar novas amostras plausíveis, incluindo os VAEs como um representante importante.
Espaço Manifold
Estrutura geométrica de baixa dimensão no espaço latente onde os pontos codificados de dados reais se concentram naturalmente.
Regularização Distribucional
Processo que restringe as distribuições latentes a seguir uma forma predefinida (geralmente gaussiana padrão) para garantir uma amostragem suave no espaço latente.
Travessia Latente
Técnica de exploração do espaço latente variando sistematicamente uma dimensão latente para observar seu impacto nos dados gerados.
KL Annealing
Estratégia de treinamento onde o peso da divergência KL é gradualmente aumentado para estabilizar o aprendizado inicial do VAE.
Colapso Posterior
Fenômeno onde o codificador ignora os dados de entrada e sempre produz a distribuição a priori, reduzindo o modelo a um simples decodificador.
Beta-VAE
Variante do VAE que introduz um peso beta para controlar o equilíbrio entre reconstrução e regularização, favorecendo representações latentes mais interpretáveis.