Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Pondération Linéaire
Méthode de scalarisation où les objectifs sont combinés par une somme pondérée, les poids représentant l'importance relative de chaque objectif selon les préférences du décideur.
Q-Learning Multi-Objectif
Extension du Q-learning traditionnel où chaque action possède un vecteur de Q-valeurs au lieu d'une valeur scalaire, nécessitant des critères de sélection d'action spécifiques aux compromis.
Politique Non-Dominée
Stratégie d'action dans l'espace des politiques dont les performances ne sont surpassées par aucune autre politique simultanément sur tous les objectifs, garantissant l'optimalité au sens de Pareto.
Hyperplan de Scalarisation
Technique utilisant un hyperplan dans l'espace des objectifs pour projeter les solutions sur une dimension scalaire, permettant une exploration structurée des compromis selon des directions prédéfinies.
Tchebycheff Scalarisation
Méthode de scalarisation basée sur la distance de Tchebycheff pondérée à un point de référence, garantissant l'obtention de solutions Pareto-optimales même pour des problèmes non convexes.
Reward Shaping Multi-Objectif
Technique modifiant la fonction de récompense vectorielle pour accélérer l'apprentissage tout en préservant l'optimalité des politiques multi-objectifs finales.
Trade-off Dynamique
Méthode adaptant les poids ou préférences entre objectifs pendant l'apprentissage, permettant une exploration flexible de l'espace des compromis selon l'évolution de l'environnement.
Préférences à Priori
Approche où les préférences du décideur sont spécifiées avant le processus d'optimisation, guidant la recherche vers des régions spécifiques du front de Pareto.
Préférences à Posteriori
Stratégie générant d'abord l'ensemble complet des solutions Pareto-optimales, puis permettant au décideur de sélectionner la solution préférée après visualisation et analyse.
Méthode de Référence
Technique utilisant un point de référence dans l'espace des objectifs pour guider la recherche vers des solutions atteignant ou dépassant les niveaux de performance souhaités.
Vecteur d'Utopie
Point théorique dans l'espace des objectifs optimisant simultanément chaque objectif individuellement, utilisé comme référence pour évaluer les compromis dans les méthodes de scalarisation.
Distance de Chebyshev
Métrique utilisant le maximum des différences absolues entre composantes, particulièrement adaptée pour mesurer les écarts aux objectifs dans l'optimisation multi-objectifs.
Scalarisation Augmentée
Extension de la pondération linéaire ajoutant un terme de pénalité basé sur les écarts minimaux aux objectifs, garantissant l'obtention de solutions strictement Pareto-optimales.
Fonction d'Agrégation
Opération mathématique combinant plusieurs valeurs d'objectifs en une seule valeur scalaire, servant de critère pour évaluer et comparer les solutions dans l'espace multi-objectifs.
Politique de Compromis
Stratégie d'action équilibrant explicitement les objectifs contradictoires selon des préférences définies, souvent implémentée via des poids adaptatifs ou des contraintes dynamiques.
Équilibre de Nash Multi-Objectif
Concept étendant l'équilibre de Nash aux contextes multi-objectifs où chaque agent optimise son propre vecteur d'objectifs sous des contraintes d'équilibre mutuel.