Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
MARL (Multi-Agent Reinforcement Learning)
Paradigme d'apprentissage où plusieurs agents interagissent simultanément dans un environnement partagé, apprenant des politiques optimales individuellement ou collectivement.
Centralized Training with Decentralized Execution (CTDE)
Approche où les agents s'entraînent en utilisant des informations globales centralisées mais exécutent leurs politiques de manière décentralisée avec des observations locales.
QMIX (Q-value Mixing)
Algorithme de décomposition de la valeur Q qui représente la Q-value jointe comme une combinaison non-linéaire monotone des Q-values individuelles des agents.
VDN (Value Decomposition Networks)
Méthode de factorisation de la valeur totale qui décompose la valeur jointe en somme des valeurs individuelles de chaque agent dans un cadre coopératif.
MADDPG (Multi-Agent Deep Deterministic Policy Gradient)
Extension de DDPG aux environnements multi-agents utilisant l'apprentissage centralisé avec exécution décentralisée pour les environnements mixtes.
COMA (Counterfactual Multi-Agent Policy Gradients)
Algorithme qui utilise des bases contrefactuelles pour estimer comment les actions individuelles affectent la récompense globale en modifiant la politique d'un agent tout en maintenant les autres fixes.
Dec-POMDP (Decentralized Partially Observable Markov Decision Process)
Formalisation mathématique des problèmes de décision séquentielle multi-agents avec observation partielle et prise de décision décentralisée.
Credit Assignment
Problème fondamental consistant à déterminer la contribution de chaque agent à la récompense collective dans les environnements multi-agents coopératifs.
Joint Action Learning
Technique où les agents apprennent à coordonner leurs actions en considérant les actions simultanées de tous les agents dans l'environnement.
Agent Modeling
Capacité d'un agent à construire et maintenir des modèles mentaux des intentions, croyances et politiques des autres agents dans l'environnement.
Mean Field Theory in MARL
Approche théorique traitant les interactions multi-agents en grande échelle en approximant l'influence collective par un champ moyen statistique.
Opponent Modeling
Processus d'apprentissage des stratégies et comportements des agents adverses pour anticiper leurs actions et optimiser sa propre politique dans des jeux compétitifs.
Communication Protocols in MARL
Mécanismes permettant aux agents d'échanger des informations pour améliorer la coordination et l'efficacité collective dans des tâches coopératives.
Cooperative MARL
Sous-domaine du MARL où les agents partagent un objectif commun et maximisent une récompense collective à travers la coordination et la collaboration.
Competitive MARL
Cadre multi-agents où les individus ou équipes s'affrontent dans des jeux à somme nulle ou non-nulle pour maximiser leurs récompenses individuelles.
Mixed-Motive MARL
Environnements multi-agents combinant éléments coopératifs et compétitifs, où les agents doivent équilibrer intérêts personnels et objectifs collectifs.
Emergent Behavior
Comportements complexes non-programmés qui apparaissent spontanément de l'interaction entre agents apprenant dans un environnement partagé.
Attention Mechanisms in MARL
Techniques permettant aux agents de pondérer sélectivement l'information provenant d'autres agents ou parties de l'environnement pour une meilleure décision.
Curriculum Learning in MARL
Stratégie d'entraînement progressant de tâches simples à complexes pour faciliter l'apprentissage de politiques robustes dans des environnements multi-agents.
Scalability in MARL
Défi algorithmique consistant à maintenir les performances d'apprentissage face à l'augmentation exponentielle de l'espace d'action joint avec le nombre d'agents.