KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Approximation de fonction
Technique permettant d'estimer des fonctions de valeur ou de politique dans des espaces d'états continus en utilisant des paramètres ajustables plutôt que des tables explicites.
Réseaux de neurones d'approximation
Architectures neuronales utilisées comme approximateurs universels pour représenter des fonctions Q ou politiques dans des espaces à grande dimension.
Méthodes tabulaires étendues
Extension des algorithmes de RL classiques comme Q-learning ou SARSA aux espaces continus via l'approximation de fonction plutôt que des tables de valeurs.
Espaces d'états continus
Environnements où les états peuvent prendre une infinité de valeurs dans un intervalle continu, nécessitant une généralisation plutôt que mémorisation.
Deep Q-Network (DQN)
Architecture de RL combinant Q-learning avec des réseaux de neurones profonds pour gérer des espaces d'états à haute dimension comme les pixels d'images.
Approximation de fonction de valeur
Méthode consistant à estimer V(s) ou Q(s,a) à l'aide d'un approximateur paramétré θ pour généraliser à travers des états similaires.
Généralisation en RL
Capacité d'un agent à transférer ses connaissances apprises sur des états observés à des états non vus mais similaires.
Malédiction de la dimensionnalité
Phénomène où la complexité computationnelle croît exponentiellement avec le nombre de dimensions de l'espace d'états.
Extraction de caractéristiques
Processus de transformation des états bruts en représentations informatives adaptées à l'approximation de fonction en RL.
Approximation linéaire
Méthode d'approximation où la fonction de valeur est représentée comme combinaison linéaire de caractéristiques φ(s) avec poids w.
Fonctions de base radiales
Fonctions d'activation localisées dans l'espace d'états, utilisées comme approximateurs universels en RL continu.
Stabilité de convergence
Propriété garantissant que l'algorithme d'approximation converge vers une solution optimale sous certaines conditions.