🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Modèle de Dynamique

Un modèle appris par l'agent qui prédit l'évolution de l'environnement, c'est-à-dire le prochain état ou la prochaine observation étant donné l'état actuel et l'action entreprise. La qualité de ce modèle est centrale pour l'apprentissage par curiosité model-based.

📖
termes

Module de Curiosité Intrinsèque (ICM)

Une architecture de réseau de neurones spécifique qui combine un module de prédiction de l'état suivant dans un espace de caractéristiques et un module inverse pour prédire l'action. L'erreur de prédiction du module avant est utilisée comme récompense intrinsèque.

📖
termes

Exploration par Curiosité

Une stratégie d'exploration où un agent est motivé à visiter des états de l'environnement qui maximisent son apprentissage, mesuré par des signaux internes comme l'erreur de prédiction. L'agent cherche activement ce qu'il ne sait pas.

📖
termes

Problème de la Télévision Aléatoire

Un défi majeur en apprentissage par curiosité où un agent peut être obsédé par des sources d'entropie imprévisibles mais inutiles, comme un écran de statique télévisuel. Cela conduit à une récompense intrinsèque élevée sans apprentissage significatif sur la dynamique de l'environnement.

📖
termes

Espace des États Latents

Une représentation compressée et abstraite de l'environnement, apprise par un réseau de neurones, dans laquelle le modèle de dynamique apprend à prédire. Travailler dans cet espace réduit la complexité et aide à se concentrer sur les caractéristiques pertinentes pour la prédiction.

📖
termes

Façonnage de la Récompense Intrinsèque

Le processus de conception et de pondération du signal de récompense intrinsèque, souvent en le combinant avec la récompense extrinsèque de la tâche. Un bon façonnage est crucial pour équilibrer exploration et exploitation.

📖
termes

Apprentissage du Modèle

Le processus par lequel un agent de MBRL améliore son modèle de dynamique en interagissant avec l'environnement. Ce processus est itératif : le modèle est utilisé pour explorer, et les nouvelles données collectées servent à affiner le modèle.

📖
termes

Surprise Modale

Un concept désignant une situation où l'expérience de l'agent contredit les attentes de son modèle interne du monde. Dans les systèmes model-based, la surprise est directement mesurée par l'erreur de prédiction du modèle.

📖
termes

Réseau de Prédiction

Le composant neuronal du modèle de dynamique responsable de la génération de la prédiction du prochain état latent. Sa performance, évaluée par une fonction de perte, détermine directement le signal de curiosité.

📖
termes

Cadre d'Apprentissage par Renforcement Intrinsèque

Une structure générale pour l'apprentissage par renforcement où la fonction objectif de l'agent est une somme pondérée d'une récompense extrinsèque (liée à la tâche) et d'une récompense intrinsèque (liée à l'exploration).

📖
termes

Exploration par Maximisation de l'Information Variationnelle (VIME)

Une méthode formelle qui utilise l'inférence variationnelle pour maximiser l'information gagnée sur les paramètres du modèle de l'environnement. Elle fournit une mesure de curiosité bien fondée théoriquement qui évite certains pièges.

📖
termes

Borne de Curiosité

Un mécanisme ou une contrainte théorique visant à limiter la curiosité de l'agent pour la diriger vers des aspects de l'environnement qui sont à la fois inconnus et contrôlables/apprenables. Cela aide à atténuer le problème de la télévision aléatoire.

🔍

Aucun résultat trouvé