🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Red Antagónica Generativa

Arquitectura de aprendizaje no supervizado compuesta por dos redes neuronales en competencia, un generador y un discriminador, que compiten para generar datos sintéticos realistas.

📖
términos

Pérdida Minimax

Función objetivo original de los GANs donde el generador minimiza el log-probabilidad del discriminador de equivocarse, mientras que el discriminador maximiza la probabilidad de clasificación correcta.

📖
términos

Espacio Latente

Espacio vectorial de dimensión reducida donde el generador muestrea ruido aleatorio para crear datos, permitiendo un control semántico sobre las características generadas.

📖
términos

StyleGAN

Arquitectura GAN avanzada que utiliza una red de mapeo y módulos AdaIN para controlar los estilos jerárquicos de las características generadas a diferentes resoluciones.

📖
términos

Distancia de Jensen-Shannon

Métrica de divergencia simétrica y acotada utilizada en los GANs originales para medir la diferencia entre la distribución de los datos reales y generados.

📖
términos

Gradiente Penalty

Término de regularización añadido a la función de pérdida WGAN para restringir los gradientes del discriminador, asegurando la continuidad de la transformada de Lipschitz.

📖
términos

Equilibrio de Nash

Punto de optimalidad donde ni el generador ni el discriminador pueden mejorar su rendimiento modificando unilateralmente sus parámetros, indicando la convergencia del entrenamiento.

📖
términos

Red Codificadora

Componente adicional en las variantes BiGAN o ALI que aprende a mapear los datos reales hacia el espacio latente, permitiendo la inferencia latente y la reconstrucción.

📖
términos

Pérdida de Consistencia Cíclica

Función de pérdida adicional en los CycleGANs que garantiza la conservación del contenido durante las traducciones entre dominios no emparejados a través de ciclos de ida y vuelta.

📖
términos

Normalización Espectral

Técnica de regularización que restringe la norma espectral de los pesos del discriminador, estabilizando el entrenamiento de los GANs al controlar la transformación de Lipschitz.

📖
términos

Crecimiento Progresivo

Estrategia de entrenamiento donde las redes comienzan con imágenes de baja resolución y agregan progresivamente capas para aumentar la resolución, estabilizando la convergencia.

📖
términos

Autoencoder Variacional

Arquitectura híbrida que combina VAE y GAN donde el VAE asegura la cobertura del espacio latente y el GAN mejora la calidad visual de las muestras generadas.

📖
términos

Distancia Fréchet Inception

Métrica de evaluación cuantitativa que mide la similitud entre las distribuciones de características Inception de las imágenes reales y generadas a través de la distancia de Fréchet.

🔍

No se encontraron resultados