🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Pondération Linéaire

Méthode de scalarisation où les objectifs sont combinés par une somme pondérée, les poids représentant l'importance relative de chaque objectif selon les préférences du décideur.

📖
termes

Q-Learning Multi-Objectif

Extension du Q-learning traditionnel où chaque action possède un vecteur de Q-valeurs au lieu d'une valeur scalaire, nécessitant des critères de sélection d'action spécifiques aux compromis.

📖
termes

Politique Non-Dominée

Stratégie d'action dans l'espace des politiques dont les performances ne sont surpassées par aucune autre politique simultanément sur tous les objectifs, garantissant l'optimalité au sens de Pareto.

📖
termes

Hyperplan de Scalarisation

Technique utilisant un hyperplan dans l'espace des objectifs pour projeter les solutions sur une dimension scalaire, permettant une exploration structurée des compromis selon des directions prédéfinies.

📖
termes

Tchebycheff Scalarisation

Méthode de scalarisation basée sur la distance de Tchebycheff pondérée à un point de référence, garantissant l'obtention de solutions Pareto-optimales même pour des problèmes non convexes.

📖
termes

Reward Shaping Multi-Objectif

Technique modifiant la fonction de récompense vectorielle pour accélérer l'apprentissage tout en préservant l'optimalité des politiques multi-objectifs finales.

📖
termes

Trade-off Dynamique

Méthode adaptant les poids ou préférences entre objectifs pendant l'apprentissage, permettant une exploration flexible de l'espace des compromis selon l'évolution de l'environnement.

📖
termes

Préférences à Priori

Approche où les préférences du décideur sont spécifiées avant le processus d'optimisation, guidant la recherche vers des régions spécifiques du front de Pareto.

📖
termes

Préférences à Posteriori

Stratégie générant d'abord l'ensemble complet des solutions Pareto-optimales, puis permettant au décideur de sélectionner la solution préférée après visualisation et analyse.

📖
termes

Méthode de Référence

Technique utilisant un point de référence dans l'espace des objectifs pour guider la recherche vers des solutions atteignant ou dépassant les niveaux de performance souhaités.

📖
termes

Vecteur d'Utopie

Point théorique dans l'espace des objectifs optimisant simultanément chaque objectif individuellement, utilisé comme référence pour évaluer les compromis dans les méthodes de scalarisation.

📖
termes

Distance de Chebyshev

Métrique utilisant le maximum des différences absolues entre composantes, particulièrement adaptée pour mesurer les écarts aux objectifs dans l'optimisation multi-objectifs.

📖
termes

Scalarisation Augmentée

Extension de la pondération linéaire ajoutant un terme de pénalité basé sur les écarts minimaux aux objectifs, garantissant l'obtention de solutions strictement Pareto-optimales.

📖
termes

Fonction d'Agrégation

Opération mathématique combinant plusieurs valeurs d'objectifs en une seule valeur scalaire, servant de critère pour évaluer et comparer les solutions dans l'espace multi-objectifs.

📖
termes

Politique de Compromis

Stratégie d'action équilibrant explicitement les objectifs contradictoires selon des préférences définies, souvent implémentée via des poids adaptatifs ou des contraintes dynamiques.

📖
termes

Équilibre de Nash Multi-Objectif

Concept étendant l'équilibre de Nash aux contextes multi-objectifs où chaque agent optimise son propre vecteur d'objectifs sous des contraintes d'équilibre mutuel.

🔍

Aucun résultat trouvé