Glosario IA
El diccionario completo de la Inteligencia Artificial
Optimización de Arquitectura Neuronal (NAS)
Proceso de automatización del diseño de arquitecturas de redes neuronales óptimas para una tarea dada, explorando un vasto espacio de búsqueda de topologías e hiperparámetros.
Espacio de Búsqueda de Arquitectura
Conjunto de todas las arquitecturas de redes neuronales posibles, definido por restricciones como el número de capas, tipos de operaciones y esquemas de conexión.
Modelo Sustituto (Surrogate Model)
Modelo estadístico que aproxima la función de rendimiento costosa de evaluar (entrenamiento de una red neuronal) para acelerar el proceso de optimización.
Mejora Esperada (Expected Improvement - EI)
Criterio de función de adquisición que selecciona el siguiente punto a evaluar maximizando la expectativa de mejora respecto al mejor rendimiento actual.
Búsqueda por Refuerzo (Reinforcement Learning-based NAS)
Enfoque NAS donde un controlador, a menudo una red recurrente, aprende a generar arquitecturas de red neuronal maximizando una recompensa de rendimiento.
Búsqueda Evolutiva (Evolutionary NAS)
Método NAS inspirado en la evolución biológica, utilizando operadores de mutación y cruce sobre una población de arquitecturas para encontrar mejores.
Evaluación de Baja Fidelidad (Low-Fidelity Evaluation)
Estrategia de estimación del rendimiento de una arquitectura usando datos reducidos, menos épocas de entrenamiento o un subconjunto del conjunto de datos para reducir costos.
Búsqueda Basada en Gradientes (Gradient-Based NAS)
Técnica NAS que relaja el problema de selección discreta de la arquitectura en un problema continuo, permitiendo usar el descenso de gradiente para optimizar los pesos de la arquitectura.
Hiperred (Hypernetwork)
Red neuronal cuyos pesos son generados por otra red (la hiperred), permitiendo parametrizar y optimizar una familia de arquitecturas.
Celda de Arquitectura (Architecture Cell)
Bloque de construcción repetible en una arquitectura de red neuronal, cuya estructura interna es optimizada por NAS y luego apilada para formar el modelo final.
Optimización Multiobjetivo (Multi-Objective NAS)
Variante de NAS que busca optimizar simultáneamente múltiples métricas, como precisión, latencia o consumo energético, para encontrar compromisos óptimos.
Método del Árbol de Parzen Estructurado (TPE)
Algoritmo de optimización bayesiana que modela la distribución de configuraciones buenas y malas utilizando modelos de árboles de Parzen para guiar la búsqueda.
Aprendizaje por Bandido (Bandit-Based NAS)
Enfoque NAS que trata la selección de componentes de arquitectura como un problema de bandidos de brazos múltiples, equilibrando exploración y explotación para construir el modelo.
Proxy de Rendimiento (Performance Proxy)
Métrica o modelo de bajo costo utilizado para estimar el rendimiento final de una arquitectura, evitando un entrenamiento completo y largo durante la fase de búsqueda.
Espacio de Búsqueda Reducido (Reduced Search Space)
Estrategia que consiste en limitar el espacio de búsqueda de arquitecturas a bloques o patrones predefinidos para acelerar la convergencia del algoritmo NAS.
Compartición de Pesos entre Arquitecturas (Weight Sharing)
Técnica donde los pesos de una red neuronal son compartidos entre múltiples arquitecturas candidatas evaluadas, reduciendo drásticamente el costo computacional de la búsqueda NAS.