Glosario IA
El diccionario completo de la Inteligencia Artificial
Red Antagónica Generativa
Arquitectura de aprendizaje no supervizado compuesta por dos redes neuronales en competencia, un generador y un discriminador, que compiten para generar datos sintéticos realistas.
Pérdida Minimax
Función objetivo original de los GANs donde el generador minimiza el log-probabilidad del discriminador de equivocarse, mientras que el discriminador maximiza la probabilidad de clasificación correcta.
Espacio Latente
Espacio vectorial de dimensión reducida donde el generador muestrea ruido aleatorio para crear datos, permitiendo un control semántico sobre las características generadas.
StyleGAN
Arquitectura GAN avanzada que utiliza una red de mapeo y módulos AdaIN para controlar los estilos jerárquicos de las características generadas a diferentes resoluciones.
Distancia de Jensen-Shannon
Métrica de divergencia simétrica y acotada utilizada en los GANs originales para medir la diferencia entre la distribución de los datos reales y generados.
Gradiente Penalty
Término de regularización añadido a la función de pérdida WGAN para restringir los gradientes del discriminador, asegurando la continuidad de la transformada de Lipschitz.
Equilibrio de Nash
Punto de optimalidad donde ni el generador ni el discriminador pueden mejorar su rendimiento modificando unilateralmente sus parámetros, indicando la convergencia del entrenamiento.
Red Codificadora
Componente adicional en las variantes BiGAN o ALI que aprende a mapear los datos reales hacia el espacio latente, permitiendo la inferencia latente y la reconstrucción.
Pérdida de Consistencia Cíclica
Función de pérdida adicional en los CycleGANs que garantiza la conservación del contenido durante las traducciones entre dominios no emparejados a través de ciclos de ida y vuelta.
Normalización Espectral
Técnica de regularización que restringe la norma espectral de los pesos del discriminador, estabilizando el entrenamiento de los GANs al controlar la transformación de Lipschitz.
Crecimiento Progresivo
Estrategia de entrenamiento donde las redes comienzan con imágenes de baja resolución y agregan progresivamente capas para aumentar la resolución, estabilizando la convergencia.
Autoencoder Variacional
Arquitectura híbrida que combina VAE y GAN donde el VAE asegura la cobertura del espacio latente y el GAN mejora la calidad visual de las muestras generadas.
Distancia Fréchet Inception
Métrica de evaluación cuantitativa que mide la similitud entre las distribuciones de características Inception de las imágenes reales y generadas a través de la distancia de Fréchet.