AI-ordlista
Den kompletta ordlistan över AI
Pondération Linéaire
Méthode de scalarisation où les objectifs sont combinés par une somme pondérée, les poids représentant l'importance relative de chaque objectif selon les préférences du décideur.
Q-Learning Multi-Objectif
Extension du Q-learning traditionnel où chaque action possède un vecteur de Q-valeurs au lieu d'une valeur scalaire, nécessitant des critères de sélection d'action spécifiques aux compromis.
Politique Non-Dominée
Stratégie d'action dans l'espace des politiques dont les performances ne sont surpassées par aucune autre politique simultanément sur tous les objectifs, garantissant l'optimalité au sens de Pareto.
Hyperplan de Scalarisation
Technique utilisant un hyperplan dans l'espace des objectifs pour projeter les solutions sur une dimension scalaire, permettant une exploration structurée des compromis selon des directions prédéfinies.
Tchebycheff Scalarisation
Méthode de scalarisation basée sur la distance de Tchebycheff pondérée à un point de référence, garantissant l'obtention de solutions Pareto-optimales même pour des problèmes non convexes.
Reward Shaping Multi-Objectif
Technique modifiant la fonction de récompense vectorielle pour accélérer l'apprentissage tout en préservant l'optimalité des politiques multi-objectifs finales.
Trade-off Dynamique
Méthode adaptant les poids ou préférences entre objectifs pendant l'apprentissage, permettant une exploration flexible de l'espace des compromis selon l'évolution de l'environnement.
Préférences à Priori
Approche où les préférences du décideur sont spécifiées avant le processus d'optimisation, guidant la recherche vers des régions spécifiques du front de Pareto.
A Posteriori Preferences
Strategy that first generates the complete set of Pareto-optimal solutions, then allows the decision maker to select the preferred solution after visualization and analysis.
Reference Point Method
Technique using a reference point in the objective space to guide the search toward solutions achieving or exceeding desired performance levels.
Utopia Vector
Theoretical point in the objective space that simultaneously optimizes each individual objective, used as a reference to evaluate trade-offs in scalarization methods.
Chebyshev Distance
Metric using the maximum of absolute differences between components, particularly suitable for measuring deviations from objectives in multi-objective optimization.
Augmented Scalarization
Extension of linear weighting adding a penalty term based on minimal deviations from objectives, ensuring strictly Pareto-optimal solutions.
Aggregation Function
Mathematical operation combining multiple objective values into a single scalar value, serving as a criterion to evaluate and compare solutions in the multi-objective space.
Compromise Policy
Action strategy that explicitly balances conflicting objectives according to defined preferences, often implemented through adaptive weights or dynamic constraints.
Multi-Objective Nash Equilibrium
Concept extending Nash equilibrium to multi-objective contexts where each agent optimizes its own objective vector under mutual equilibrium constraints.