Glosario IA
El diccionario completo de la Inteligencia Artificial
Autoencoder Variacional
Arquitectura de red neuronal generativa que aprende una representación latente probabilística de los datos de entrada maximizando un límite inferior sobre la log-verosimilitud.
ELBO (Límite Inferior de Evidencia)
Función objetivo maximizada en el aprendizaje variacional, combinando la pérdida de reconstrucción y la regularización KL como límite inferior de la log-verosimilitud marginal.
Posterior de Inferencia
Distribución aproximada q(z|x) aprendida por el codificador para estimar la posterior verdadera p(z|x), generalmente modelada como una gaussiana diagonal.
VAE Convolucional
Variante del VAE que utiliza capas convolucionales para procesar eficientemente los datos de imagen, preservando la estructura espacial y mejorando la calidad de reconstrucción.
VAE Jerárquico
Arquitectura multinivel donde las variables latentes se organizan jerárquicamente, permitiendo un modelado más expresivo y una generación progresiva.
Espacio Latente Continuo
Espacio de representación donde cada punto corresponde a una muestra válida y donde las transiciones entre puntos son suaves, permitiendo la interpolación y la manipulación semántica.
Factor de Desenredo
Propiedad del espacio latente donde cada dimensión captura un factor de variación independiente de los datos, facilitando la interpretabilidad y el control generativo.
Muestreo Reparametrizado
Proceso de muestreo que permite la diferenciabilidad al separar las fuentes de aleatoriedad de los parámetros aprendibles, esencial para el entrenamiento de los VAEs.
Generación Condicional
Extensión de los VAEs donde la generación es condicionada por información adicional como etiquetas o atributos, permitiendo un control específico sobre las salidas.
Aprendizaje Variacional
Paradigma de optimización que aproxima la inferencia bayesiana mediante la maximización del ELBO, base teórica subyacente al entrenamiento de los VAEs.
Regularización de Distribución
Mecanismo que obliga a la distribución latente aprendida a seguir una forma específica (típicamente gaussiana), evitando el colapso posterior y garantizando un espacio latente estructurado.