🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Ponderación Lineal

Método de escalarización donde los objetivos se combinan mediante una suma ponderada, los pesos representan la importancia relativa de cada objetivo según las preferencias del tomador de decisiones.

📖
términos

Q-Learning Multi-Objetivo

Extensión del Q-learning tradicional donde cada acción posee un vector de valores Q en lugar de un valor escalar, necesitando criterios de selección de acción específicos para los compromisos.

📖
términos

Política No Dominada

Estrategia de acción en el espacio de políticas cuyos rendimientos no son superados por ninguna otra política simultáneamente en todos los objetivos, garantizando la optimalidad en el sentido de Pareto.

📖
términos

Hiperplano de Escalarización

Técnica que utiliza un hiperplano en el espacio de objetivos para proyectar las soluciones sobre una dimensión escalar, permitiendo una exploración estructurada de los compromisos según direcciones predefinidas.

📖
términos

Escalarización de Chebyshev

Método de escalarización basado en la distancia de Chebyshev ponderada a un punto de referencia, garantizando la obtención de soluciones Pareto-óptimas incluso para problemas no convexos.

📖
términos

Reward Shaping Multi-Objetivo

Técnica que modifica la función de recompensa vectorial para acelerar el aprendizaje mientras preserva la optimalidad de las políticas multi-objetivo finales.

📖
términos

Trade-off Dinámico

Método que adapta los pesos o preferencias entre objetivos durante el aprendizaje, permitiendo una exploración flexible del espacio de compromisos según la evolución del entorno.

📖
términos

Preferencias a Priori

Enfoque donde las preferencias del tomador de decisiones se especifican antes del proceso de optimización, guiando la búsqueda hacia regiones específicas del frente de Pareto.

📖
términos

Preferencias a Posteriori

Estrategia que genera primero el conjunto completo de soluciones Pareto-óptimas, luego permite al decisor seleccionar la solución preferida después de visualización y análisis.

📖
términos

Método de Referencia

Técnica que utiliza un punto de referencia en el espacio de objetivos para guiar la búsqueda hacia soluciones que alcanzan o superan los niveles de rendimiento deseados.

📖
términos

Vector de Utopía

Punto teórico en el espacio de objetivos que optimiza simultáneamente cada objetivo individualmente, utilizado como referencia para evaluar los compromisos en los métodos de escalarización.

📖
términos

Distancia de Chebyshev

Métrica que utiliza el máximo de las diferencias absolutas entre componentes, particularmente adaptada para medir las desviaciones a los objetivos en la optimización multiobjetivo.

📖
términos

Escalarización Aumentada

Extensión de la ponderación lineal que añade un término de penalización basado en las desviaciones mínimas a los objetivos, garantizando la obtención de soluciones estrictamente Pareto-óptimas.

📖
términos

Función de Agregación

Operación matemática que combina varios valores de objetivos en un único valor escalar, sirviendo como criterio para evaluar y comparar soluciones en el espacio multiobjetivo.

📖
términos

Política de Compromiso

Estrategia de acción que equilibra explícitamente los objetivos contradictorios según preferencias definidas, a menudo implementada mediante pesos adaptativos o restricciones dinámicas.

📖
términos

Equilibrio de Nash Multiobjetivo

Concepto que extiende el equilibrio de Nash a contextos multiobjetivo donde cada agente optimiza su propio vector de objetivos bajo restricciones de equilibrio mutuo.

🔍

No se encontraron resultados