Glossário IA
O dicionário completo da Inteligência Artificial
Autoencoder Contrativo (CAE)
Um tipo de autoencoder cuja função de perda inclui uma penalidade na norma da matriz jacobiana do codificador, forçando a representação latente a ser insensível a pequenas variações na entrada.
Penalidade Jacobiana
Termo de regularização adicionado à função de perda de um autoencoder contrativo, calculado como a soma dos quadrados das derivadas parciais da representação latente em relação a cada pixel de entrada.
Robustez a Perturbações
Capacidade de um modelo, nomeadamente um autoencoder contrativo, de manter um desempenho estável face a ligeiras modificações ou ruídos nos dados de entrada.
Função de Perda Contrativa
Função objetivo que combina o erro de reconstrução padrão e a penalidade jacobiana, otimizada durante o treinamento de um autoencoder contrativo.
Desvanecimento do Gradiente (Gradient Vanishing)
Problema potencial no cálculo da penalidade jacobiana em redes profundas, onde os gradientes podem tornar-se extremamente pequenos, dificultando a otimização.
Espaço Latente Contraído
O espaço de representação de baixa dimensão produzido pelo codificador de um CAE, caracterizado por uma baixa sensibilidade às variações locais da entrada.
Fator de Regularização (Lambda)
Hiperparâmetro que controla a importância relativa da penalidade jacobiana em comparação com o erro de reconstrução na função de perda de um autoencoder contrativo.
Desentrelaçamento de Fatores (Factor Disentanglement)
Objetivo associado aos autoencoders contrativos onde a representação latente visa capturar os fatores de variação mais relevantes dos dados, ignorando as variações não informativas.
Autoencoder Denoising (Denoising Autoencoder)
Modelo relacionado que aprende a reconstruir uma entrada limpa a partir de uma versão corrompida, compartilhando o objetivo de robustez com o autoencoder contrativo, mas através de uma abordagem diferente.
Sensibilidade do Modelo
Medida da variação da saída de um modelo (aqui, a representação latente) em resposta a pequenas modificações em sua entrada, que o autoencoder contrativo busca minimizar.
Regularização por Restrição
Estratégia de regularização utilizada nos CAE, onde uma restrição explícita (a penalidade no jacobiano) é imposta sobre os parâmetros do modelo para guiar seu aprendizado.