🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Optimización de Arquitectura Neuronal (NAS)

Proceso de automatización del diseño de arquitecturas de redes neuronales óptimas para una tarea dada, explorando un vasto espacio de búsqueda de topologías e hiperparámetros.

📖
términos

Espacio de Búsqueda de Arquitectura

Conjunto de todas las arquitecturas de redes neuronales posibles, definido por restricciones como el número de capas, tipos de operaciones y esquemas de conexión.

📖
términos

Modelo Sustituto (Surrogate Model)

Modelo estadístico que aproxima la función de rendimiento costosa de evaluar (entrenamiento de una red neuronal) para acelerar el proceso de optimización.

📖
términos

Mejora Esperada (Expected Improvement - EI)

Criterio de función de adquisición que selecciona el siguiente punto a evaluar maximizando la expectativa de mejora respecto al mejor rendimiento actual.

📖
términos

Búsqueda por Refuerzo (Reinforcement Learning-based NAS)

Enfoque NAS donde un controlador, a menudo una red recurrente, aprende a generar arquitecturas de red neuronal maximizando una recompensa de rendimiento.

📖
términos

Búsqueda Evolutiva (Evolutionary NAS)

Método NAS inspirado en la evolución biológica, utilizando operadores de mutación y cruce sobre una población de arquitecturas para encontrar mejores.

📖
términos

Evaluación de Baja Fidelidad (Low-Fidelity Evaluation)

Estrategia de estimación del rendimiento de una arquitectura usando datos reducidos, menos épocas de entrenamiento o un subconjunto del conjunto de datos para reducir costos.

📖
términos

Búsqueda Basada en Gradientes (Gradient-Based NAS)

Técnica NAS que relaja el problema de selección discreta de la arquitectura en un problema continuo, permitiendo usar el descenso de gradiente para optimizar los pesos de la arquitectura.

📖
términos

Hiperred (Hypernetwork)

Red neuronal cuyos pesos son generados por otra red (la hiperred), permitiendo parametrizar y optimizar una familia de arquitecturas.

📖
términos

Celda de Arquitectura (Architecture Cell)

Bloque de construcción repetible en una arquitectura de red neuronal, cuya estructura interna es optimizada por NAS y luego apilada para formar el modelo final.

📖
términos

Optimización Multiobjetivo (Multi-Objective NAS)

Variante de NAS que busca optimizar simultáneamente múltiples métricas, como precisión, latencia o consumo energético, para encontrar compromisos óptimos.

📖
términos

Método del Árbol de Parzen Estructurado (TPE)

Algoritmo de optimización bayesiana que modela la distribución de configuraciones buenas y malas utilizando modelos de árboles de Parzen para guiar la búsqueda.

📖
términos

Aprendizaje por Bandido (Bandit-Based NAS)

Enfoque NAS que trata la selección de componentes de arquitectura como un problema de bandidos de brazos múltiples, equilibrando exploración y explotación para construir el modelo.

📖
términos

Proxy de Rendimiento (Performance Proxy)

Métrica o modelo de bajo costo utilizado para estimar el rendimiento final de una arquitectura, evitando un entrenamiento completo y largo durante la fase de búsqueda.

📖
términos

Espacio de Búsqueda Reducido (Reduced Search Space)

Estrategia que consiste en limitar el espacio de búsqueda de arquitecturas a bloques o patrones predefinidos para acelerar la convergencia del algoritmo NAS.

📖
términos

Compartición de Pesos entre Arquitecturas (Weight Sharing)

Técnica donde los pesos de una red neuronal son compartidos entre múltiples arquitecturas candidatas evaluadas, reduciendo drásticamente el costo computacional de la búsqueda NAS.

🔍

No se encontraron resultados