🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Pondération Linéaire

Méthode de scalarisation où les objectifs sont combinés par une somme pondérée, les poids représentant l'importance relative de chaque objectif selon les préférences du décideur.

📖
termer

Q-Learning Multi-Objectif

Extension du Q-learning traditionnel où chaque action possède un vecteur de Q-valeurs au lieu d'une valeur scalaire, nécessitant des critères de sélection d'action spécifiques aux compromis.

📖
termer

Politique Non-Dominée

Stratégie d'action dans l'espace des politiques dont les performances ne sont surpassées par aucune autre politique simultanément sur tous les objectifs, garantissant l'optimalité au sens de Pareto.

📖
termer

Hyperplan de Scalarisation

Technique utilisant un hyperplan dans l'espace des objectifs pour projeter les solutions sur une dimension scalaire, permettant une exploration structurée des compromis selon des directions prédéfinies.

📖
termer

Tchebycheff Scalarisation

Méthode de scalarisation basée sur la distance de Tchebycheff pondérée à un point de référence, garantissant l'obtention de solutions Pareto-optimales même pour des problèmes non convexes.

📖
termer

Reward Shaping Multi-Objectif

Technique modifiant la fonction de récompense vectorielle pour accélérer l'apprentissage tout en préservant l'optimalité des politiques multi-objectifs finales.

📖
termer

Trade-off Dynamique

Méthode adaptant les poids ou préférences entre objectifs pendant l'apprentissage, permettant une exploration flexible de l'espace des compromis selon l'évolution de l'environnement.

📖
termer

Préférences à Priori

Approche où les préférences du décideur sont spécifiées avant le processus d'optimisation, guidant la recherche vers des régions spécifiques du front de Pareto.

📖
termer

A Posteriori Preferences

Strategy that first generates the complete set of Pareto-optimal solutions, then allows the decision maker to select the preferred solution after visualization and analysis.

📖
termer

Reference Point Method

Technique using a reference point in the objective space to guide the search toward solutions achieving or exceeding desired performance levels.

📖
termer

Utopia Vector

Theoretical point in the objective space that simultaneously optimizes each individual objective, used as a reference to evaluate trade-offs in scalarization methods.

📖
termer

Chebyshev Distance

Metric using the maximum of absolute differences between components, particularly suitable for measuring deviations from objectives in multi-objective optimization.

📖
termer

Augmented Scalarization

Extension of linear weighting adding a penalty term based on minimal deviations from objectives, ensuring strictly Pareto-optimal solutions.

📖
termer

Aggregation Function

Mathematical operation combining multiple objective values into a single scalar value, serving as a criterion to evaluate and compare solutions in the multi-objective space.

📖
termer

Compromise Policy

Action strategy that explicitly balances conflicting objectives according to defined preferences, often implemented through adaptive weights or dynamic constraints.

📖
termer

Multi-Objective Nash Equilibrium

Concept extending Nash equilibrium to multi-objective contexts where each agent optimizes its own objective vector under mutual equilibrium constraints.

🔍

Inga resultat hittades