Glosario IA
El diccionario completo de la Inteligencia Artificial
VAE-GAN
Modelo que unifica autoencoders variacionales y redes generativas antagónicas, donde el decodificador del VAE sirve como generador y un discriminador adicional evalúa la calidad de las muestras generadas.
BiGAN
Red Generativa Antagónica Bidireccional que permite el aprendizaje simultáneo de un generador y un codificador inverso, donde el discriminador distingue entre pares (datos reales, codificación) y pares (datos generados, ruido).
ALI
Inferencia Aprendida Adversarialmente, un modelo similar a BiGAN donde el codificador aprende una distribución posterior sobre las variables latentes de manera antagónica, permitiendo una inferencia eficiente en modelos generativos.
Espacio Latente Estructurado
Espacio de representación aprendido por autoencoders adversarios donde las dimensiones están descorrelacionadas e interpretables, facilitando manipulaciones semánticas e interpolaciones coherentes entre muestras.
Reconstrucción Adversaria
Proceso donde la calidad de la reconstrucción de un autoencoder es evaluada por un discriminador en lugar de una simple pérdida píxel a píxel, garantizando reconstrucciones más realistas y perceptualmente mejores.
Divergencia Adversaria
Medida de divergencia entre distribuciones aprendida de manera antagónica, reemplazando la divergencia KL tradicional en los VAE para capturar estructuras más complejas y multimodales de los datos.
Regularización Adversaria
Técnica que utiliza un discriminador para regularizar el espacio latente de un autoencoder, previniendo el sobreajuste y asegurando que las representaciones sigan propiedades deseadas como la continuidad o la distribución gaussiana.
Inferencia Adversaria
Método de aprendizaje de modelos generativos donde el proceso de inferencia (codificación) se optimiza de manera antagónica con la generación, equilibrando la precisión de reconstrucción y la calidad generativa.
Autoencoder Denoising Adversarial
Variante de los autoencoders denoising donde un discriminador adicional evalúa la calidad de las denoising, forzando al modelo a producir restauraciones no solo precisas sino también realistas.
CycleGAN-AE
Arquitectura que combina los GANs ciclo-consistentes con autoencoders para garantizar traducciones entre dominios que preservan tanto el contenido semántico como la estructura latente de los datos originales.
Colapso de Modo Atenuado
Fenómeno reducido en los modelos híbridos autoencoder-GAN donde la restricción de reconstrucción fuerza al generador a cubrir toda la distribución de datos en lugar de concentrarse en solo unos pocos modos.
Pepita Latente Adversarial
Vector en el espacio latente de un autoencoder adversarial cuya modificación produce cambios controlados e interpretables en los datos generados, permitiendo ediciones semánticas precisas.
Discriminador Multiescala
Arquitectura discriminante que evalúa las generaciones a múltiples resoluciones simultáneamente en los sistemas autoencoder-GAN, garantizando la coherencia tanto de los detalles finos como de las estructuras globales.
Autoencoder Cuantificado Adversarial
Modelo donde el código latente es discretizado por cuantificación vectorial con un proceso de aprendizaje antagónico, permitiendo representaciones comprimidas eficientes mientras se mantiene una alta calidad generativa.