Glossário IA
O dicionário completo da Inteligência Artificial
Autoencoder Variacional Hierárquico (HVAE)
Arquitetura VAE estendida com múltiplos níveis de variáveis latentes organizadas hierarquicamente para capturar representações multi-escala. Permite uma modelagem mais refinada de estruturas complexas através de dependências condicionais entre os níveis.
Variáveis Latentes Hierárquicas
Conjunto de variáveis latentes organizadas em camadas onde cada nível captura abstrações diferentes do conteúdo. Os níveis superiores modelam as estruturas globais enquanto os níveis inferiores capturam os detalhes finos.
Rede de Inferência Bottom-up
Rede de inferência que processa os dados de entrada de baixo para cima através das camadas hierárquicas do VAE. Cada nível calcula os parâmetros de distribuição para as variáveis latentes correspondentes usando informações dos níveis inferiores.
Rede Generativa Top-down
Rede generativa que amostra as variáveis latentes dos níveis superiores para os inferiores para reconstruir os dados. Implementa uma geração condicional onde cada nível depende das amostras dos níveis superiores.
Ladder VAE
Variante específica de HVAE com conexões laterais entre os níveis de inferência e geração. Utiliza passagens ascendentes e descendentes combinadas para melhorar a estimativa posterior e a qualidade da reconstrução.
Stochastic Depth
Técnica de regularização onde algumas conexões hierárquicas são aleatoriamente desativadas durante o treinamento. Melhora a generalização forçando a rede a aprender representações robustas em diferentes níveis de abstração.
ELBO Hierárquico
Limite inferior da evidência adaptado a estruturas hierárquicas com termos de divergência KL para cada nível latente. Inclui termos de reconstrução ponderados de acordo com a hierarquia das variáveis latentes.
Posterior Collapse
Fenômeno onde a rede de inferência ignora as variáveis latentes e produz uma posterior degenerada igual à priori. Particularmente problemático em HVAEs com muitos níveis hierárquicos.
Inferência Amortizada Multinível
Estratégia de otimização onde uma única rede neural é compartilhada para estimar os parâmetros posteriores em todos os níveis hierárquicos. Reduz a complexidade computacional enquanto mantém a capacidade expressiva.
Variáveis Latentes Globais e Locais
Distinção em HVAEs entre variáveis que capturam propriedades globais (estilo, categoria) e variáveis locais (detalhes específicos). As variáveis globais residem tipicamente nos níveis superiores da hierarquia.
Annealing da Divergência KL
Técnica de treinamento onde o peso dos termos de divergência KL é aumentado progressivamente. Essencial em HVAEs para evitar o colapso posterior e permitir um aprendizado equilibrado entre reconstrução e regularização.
Skip Connections Hierárquicas
Conexões diretas entre níveis não adjacentes da hierarquia para preservar o gradiente e melhorar a estabilidade. Facilitam o fluxo de informação entre representações finas e abstratas.
Truque de Reparametrização Multi-escala
Extensão do truque de reparametrização padrão para arquiteturas hierárquicas com amostragem em múltiplos níveis. Requer uma gestão coordenada dos gradientes através de toda a cadeia estocástica.
Posterior Fatorizada
Aproximação posterior onde as variáveis latentes em cada nível são condicionalmente independentes, dadas as variáveis dos níveis inferiores. Simplifica a inferência enquanto permite dependências hierárquicas complexas.
Conexões Densas Hierárquicas
Arquitetura onde cada nível da hierarquia recebe como entrada as concatenações de todos os níveis precedentes. Maximiza o fluxo de informação e facilita o aprendizado de representações ricas.