Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Politique de Planification (Planning Policy)
Fonction ou stratégie qui mappe chaque état de l'environnement à une action spécifique, définissant le comportement de l'agent pour atteindre des objectifs de planification optimaux.
Récompense de Forme (Reward Shaping)
Technique de conception de récompenses qui modifie la fonction de récompense originale pour guider plus efficacement l'agent vers des comportements de planification souhaitables.
Planification Hiérarchique par RL (Hierarchical RL Planning)
Approche où la politique de planification est décomposée en une hiérarchie de sous-tâches ou sous-politiques, permettant de résoudre des problèmes de planification complexes de manière plus efficace.
Méta-Apprentissage pour la Planification (Meta-Learning for Planning)
Paradigme où l'agent apprend à apprendre des politiques de planification adaptatives qui peuvent rapidement s'ajuster à de nouveaux environnements ou objectifs de planification.
Planification Multi-Agents par RL (Multi-Agent RL Planning)
Extension du RL à des scénarios où plusieurs agents apprennent simultanément des politiques de planification, nécessitant la prise en compte des interactions et de la coopération/compétition entre agents.
Planification Robuste par RL (Robust RL Planning)
Approche visant à apprendre des politiques de planification qui maintiennent leurs performances face aux incertitudes et variations de l'environnement ou du modèle de dynamique.
Transfert d'Apprentissage en Planification RL (Transfer Learning in RL Planning)
Technique permettant de réutiliser les connaissances ou politiques apprises dans un contexte de planification pour accélérer l'apprentissage dans un nouveau contexte similaire.
Planification par RL avec Contraintes (Constrained RL Planning)
Formulation de RL où l'agent doit optimiser sa politique de planification tout en respectant des contraintes de sécurité, de ressources ou d'autres limitations spécifiques au domaine.
Apprentissage par Renforcement Basé sur le Modèle (Model-Based RL)
Approche où l'agent apprend ou utilise un modèle explicite de la dynamique de l'environnement pour améliorer sa planification et sa prise de décision, contrairement au RL sans modèle.
Planification Continue par RL (Continuous RL Planning)
Spécialisation du RL pour les problèmes de planification où les espaces d'états et d'actions sont continus, nécessitant des techniques d'approximation spécifiques comme les acteurs-critiques.
Épisode de Planification (Planning Episode)
Séquence complète d'interactions entre l'agent et l'environnement depuis un état initial jusqu'à un état terminal, constituant une unité d'apprentissage pour la politique de planification.
Planification par RL Apprentissage par Imitation (Imitation Learning for RL Planning)
Méthode où l'agent apprend une politique de planification en imitant des démonstrations d'experts, souvent utilisée pour initialiser ou guider l'apprentissage par renforcement.
Optimisation de Politique par RL (Policy Optimization)
Classe d'algorithmes RL qui optimisent directement les paramètres de la politique de planification pour maximiser la récompense attendue, incluant des méthodes comme REINFORCE ou PPO.