Glosario IA
El diccionario completo de la Inteligencia Artificial
Ponderación Lineal
Método de escalarización donde los objetivos se combinan mediante una suma ponderada, los pesos representan la importancia relativa de cada objetivo según las preferencias del tomador de decisiones.
Q-Learning Multi-Objetivo
Extensión del Q-learning tradicional donde cada acción posee un vector de valores Q en lugar de un valor escalar, necesitando criterios de selección de acción específicos para los compromisos.
Política No Dominada
Estrategia de acción en el espacio de políticas cuyos rendimientos no son superados por ninguna otra política simultáneamente en todos los objetivos, garantizando la optimalidad en el sentido de Pareto.
Hiperplano de Escalarización
Técnica que utiliza un hiperplano en el espacio de objetivos para proyectar las soluciones sobre una dimensión escalar, permitiendo una exploración estructurada de los compromisos según direcciones predefinidas.
Escalarización de Chebyshev
Método de escalarización basado en la distancia de Chebyshev ponderada a un punto de referencia, garantizando la obtención de soluciones Pareto-óptimas incluso para problemas no convexos.
Reward Shaping Multi-Objetivo
Técnica que modifica la función de recompensa vectorial para acelerar el aprendizaje mientras preserva la optimalidad de las políticas multi-objetivo finales.
Trade-off Dinámico
Método que adapta los pesos o preferencias entre objetivos durante el aprendizaje, permitiendo una exploración flexible del espacio de compromisos según la evolución del entorno.
Preferencias a Priori
Enfoque donde las preferencias del tomador de decisiones se especifican antes del proceso de optimización, guiando la búsqueda hacia regiones específicas del frente de Pareto.
Preferencias a Posteriori
Estrategia que genera primero el conjunto completo de soluciones Pareto-óptimas, luego permite al decisor seleccionar la solución preferida después de visualización y análisis.
Método de Referencia
Técnica que utiliza un punto de referencia en el espacio de objetivos para guiar la búsqueda hacia soluciones que alcanzan o superan los niveles de rendimiento deseados.
Vector de Utopía
Punto teórico en el espacio de objetivos que optimiza simultáneamente cada objetivo individualmente, utilizado como referencia para evaluar los compromisos en los métodos de escalarización.
Distancia de Chebyshev
Métrica que utiliza el máximo de las diferencias absolutas entre componentes, particularmente adaptada para medir las desviaciones a los objetivos en la optimización multiobjetivo.
Escalarización Aumentada
Extensión de la ponderación lineal que añade un término de penalización basado en las desviaciones mínimas a los objetivos, garantizando la obtención de soluciones estrictamente Pareto-óptimas.
Función de Agregación
Operación matemática que combina varios valores de objetivos en un único valor escalar, sirviendo como criterio para evaluar y comparar soluciones en el espacio multiobjetivo.
Política de Compromiso
Estrategia de acción que equilibra explícitamente los objetivos contradictorios según preferencias definidas, a menudo implementada mediante pesos adaptativos o restricciones dinámicas.
Equilibrio de Nash Multiobjetivo
Concepto que extiende el equilibrio de Nash a contextos multiobjetivo donde cada agente optimiza su propio vector de objetivos bajo restricciones de equilibrio mutuo.