🏠 Trang chủ
Benchmark
📊 Tất cả benchmark 🦖 Khủng long v1 🦖 Khủng long v2 ✅ Ứng dụng To-Do List 🎨 Trang tự do sáng tạo 🎯 FSACB - Trình diễn cuối cùng 🌍 Benchmark dịch thuật
Mô hình
🏆 Top 10 mô hình 🆓 Mô hình miễn phí 📋 Tất cả mô hình ⚙️ Kilo Code
Tài nguyên
💬 Thư viện prompt 📖 Thuật ngữ AI 🔗 Liên kết hữu ích

Thuật ngữ AI

Từ điển đầy đủ về Trí tuệ nhân tạo

162
danh mục
2.032
danh mục con
23.060
thuật ngữ
📖
thuật ngữ

Pondération Linéaire

Méthode de scalarisation où les objectifs sont combinés par une somme pondérée, les poids représentant l'importance relative de chaque objectif selon les préférences du décideur.

📖
thuật ngữ

Q-Learning Multi-Objectif

Extension du Q-learning traditionnel où chaque action possède un vecteur de Q-valeurs au lieu d'une valeur scalaire, nécessitant des critères de sélection d'action spécifiques aux compromis.

📖
thuật ngữ

Politique Non-Dominée

Stratégie d'action dans l'espace des politiques dont les performances ne sont surpassées par aucune autre politique simultanément sur tous les objectifs, garantissant l'optimalité au sens de Pareto.

📖
thuật ngữ

Hyperplan de Scalarisation

Technique utilisant un hyperplan dans l'espace des objectifs pour projeter les solutions sur une dimension scalaire, permettant une exploration structurée des compromis selon des directions prédéfinies.

📖
thuật ngữ

Tchebycheff Scalarisation

Méthode de scalarisation basée sur la distance de Tchebycheff pondérée à un point de référence, garantissant l'obtention de solutions Pareto-optimales même pour des problèmes non convexes.

📖
thuật ngữ

Reward Shaping Multi-Objectif

Technique modifiant la fonction de récompense vectorielle pour accélérer l'apprentissage tout en préservant l'optimalité des politiques multi-objectifs finales.

📖
thuật ngữ

Trade-off Dynamique

Méthode adaptant les poids ou préférences entre objectifs pendant l'apprentissage, permettant une exploration flexible de l'espace des compromis selon l'évolution de l'environnement.

📖
thuật ngữ

Préférences à Priori

Approche où les préférences du décideur sont spécifiées avant le processus d'optimisation, guidant la recherche vers des régions spécifiques du front de Pareto.

📖
thuật ngữ

A Posteriori Preferences

Strategy that first generates the complete set of Pareto-optimal solutions, then allows the decision maker to select the preferred solution after visualization and analysis.

📖
thuật ngữ

Reference Point Method

Technique using a reference point in the objective space to guide the search toward solutions achieving or exceeding desired performance levels.

📖
thuật ngữ

Utopia Vector

Theoretical point in the objective space that simultaneously optimizes each individual objective, used as a reference to evaluate trade-offs in scalarization methods.

📖
thuật ngữ

Chebyshev Distance

Metric using the maximum of absolute differences between components, particularly suitable for measuring deviations from objectives in multi-objective optimization.

📖
thuật ngữ

Augmented Scalarization

Extension of linear weighting adding a penalty term based on minimal deviations from objectives, ensuring strictly Pareto-optimal solutions.

📖
thuật ngữ

Aggregation Function

Mathematical operation combining multiple objective values into a single scalar value, serving as a criterion to evaluate and compare solutions in the multi-objective space.

📖
thuật ngữ

Compromise Policy

Action strategy that explicitly balances conflicting objectives according to defined preferences, often implemented through adaptive weights or dynamic constraints.

📖
thuật ngữ

Multi-Objective Nash Equilibrium

Concept extending Nash equilibrium to multi-objective contexts where each agent optimizes its own objective vector under mutual equilibrium constraints.

🔍

Không tìm thấy kết quả