Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
POMDP (Partially Observable Markov Decision Process)
Cadre mathématique formel modélisant les environnements où l'agent ne perçoit qu'une observation partielle de l'état réel du système.
États de Croyance
Représentation probabiliste des états possibles du système basée sur l'historique des observations et actions de l'agent.
Filtres de Particules
Méthode d'estimation séquentielle utilisant des échantillons pondérés pour approximer la distribution de croyance dans les POMDP.
Q-learning Partiellement Observable
Extension de l'algorithme Q-learning adaptée aux environnements où les états complets ne sont pas directement observables.
Réseaux de Neurones Récurrents pour POMDP
Architecture neuronale utilisant des mémoires internes pour maintenir l'information historique nécessaire à la prise de décision.
Exploration dans les POMDP
Stratégies d'exploration spécifiquement conçues pour gérer l'incertitude d'état dans les environnements partiellement observables.
Apprentissage par Renforcement Hiérarchique pour POMDP
Approche décomposant les problèmes POMDP complexes en sous-tâches hiérarchiques pour améliorer l'efficacité d'apprentissage.
Modèles Basés sur la Mémoire
Systèmes utilisant des mémoires externes explicites pour stocker et récupérer les informations historiques pertinentes.
Apprentissage Multi-agents Partiellement Observable
Extension du POMDP aux scénarios impliquant plusieurs agents interagissant dans un environnement partiellement observable.
Approximation de Politiques pour POMDP
Méthodes d'approximation permettant de calculer des politiques optimales ou quasi-optimales dans les espaces d'états de croyance de grande dimension.
Deep POMDP
Combination de l'apprentissage profond avec les POMDP pour gérer des environnements complexes et à haute dimensionnalité.
Transformeurs pour POMDP
Application des architectures transformer pour modéliser les dépendances temporelles longues dans les environnements partiellement observables.