Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
POMDP (Partially Observable Markov Decision Process)
Cadre théorique modélisant les environnements où l'agent ne perçoit qu'une observation partielle de l'état réel, nécessitant une inférence probabiliste sur l'état caché pour prendre des décisions optimales.
Espace d'Observation
Ensemble des signaux sensoriels partiels que chaque agent peut percevoir de l'environnement, représentant une information incomplète de l'état global du système.
État de Croyance
Distribution de probabilité sur l'espace des états cachés qu'un agent maintient et met à jour à partir de ses observations successives pour représenter son incertitude sur l'état réel de l'environnement.
Protocole de Communication
Mécanisme définissant quand, comment et quelles informations les agents peuvent échanger entre eux pour coordonner leurs actions dans un environnement partiellement observable.
Entraînement Centralisé avec Exécution Décentralisée
Approche où les agents s'entraînent en utilisant des informations globales (états, actions de tous) mais exécutent leurs politiques individuellement en utilisant seulement leurs observations locales.
Factorisation de la Fonction de Valeur
Technique décomposant la fonction de valeur globale en somme de fonctions de valeur individuelles ou locales, permettant l'apprentissage décentralisé tout en préservant la cohérence globale.
Modélisation des Adversaires
Processus d'inférence des politiques ou intentions des autres agents basé sur leurs comportements observés, crucial pour la prise de décision dans des environnements compétitifs ou coopératifs.
Problème d'Allocation de Crédit
Difficulté à attribuer correctement la récompense globale à chaque agent dans un système multi-agents, particulièrement complexe lorsque les observations sont partielles et les actions interdépendantes.
Apprentissage d'Action Conjointe
Méthode où les agents apprennent à coordonner leurs actions en modélisant explicitement l'impact des actions combinées sur la récompense globale, malgré l'observabilité partielle.
Estimation d'État
Processus algorithmique permettant à un agent d'inférer l'état global le plus probable à partir de ses observations locales et de son modèle de l'environnement.
Partage d'Information
Stratégie définissant comment les agents distribuent et agrègent leurs observations locales pour améliorer la connaissance collective de l'état de l'environnement.
Historique d'Observation Locale
Séquence temporelle des observations passées d'un agent, utilisée comme contexte supplémentaire pour compenser le manque d'information sur l'état global actuel.
Observabilité Partielle Multi-agents
Condition où aucun agent individuel ne peut observer l'état complet du système, nécessitant des stratégies de coordination et d'inférence pour atteindre des performances optimales.
Politique Décentralisée
Fonction de décision pour chaque agent qui mappe son historique d'observations locales à une action, sans dépendre directe des informations des autres agents durant l'exécution.
Connaissance Commune
Information que tous les agents connaissent et savent que les autres connaissent également, essentielle pour la coordination dans les environnements partiellement observables.
Graphe de Coordination
Structure représentant les dépendances d'interaction entre agents, permettant de factoriser le problème de décision global en sous-problèmes locaux plus faciles à résoudre.