🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📂
sottocategorie

Q-learning

Algorithme d'apprentissage par renforcement sans modèle qui apprend la fonction de valeur action-état pour trouver la politique optimale.

16 termini
📂
sottocategorie

SARSA

Algorithme d'apprentissage par renforcement on-policy qui met à jour les valeurs Q en utilisant l'action réellement suivie.

13 termini
📂
sottocategorie

Programmation Dynamique

Méthodes mathématiques incluant l'itération de la valeur et l'itération de la politique pour résoudre les MDP.

16 termini
📂
sottocategorie

Méthodes Monte Carlo

Techniques d'apprentissage basées sur l'échantillonnage d'épisodes complets pour estimer les valeurs.

16 termini
📂
sottocategorie

Apprentissage Temporel Différentiel

Combinaison de programmation dynamique et Monte Carlo permettant des mises à jour en ligne après chaque étape.

14 termini
📂
sottocategorie

Double Q-learning

Variante du Q-learning utilisant deux estimateurs Q pour réduire le biais de surestimation des valeurs d'action.

16 termini
📂
sottocategorie

Approximation de Fonction

Extension des méthodes tabulaires aux espaces d'états continus utilisant des approximateurs comme réseaux de neurones.

12 termini
📂
sottocategorie

Apprentissage avec Modèle

Approches où le modèle de transition de l'environnement est connu ou appris pour planifier les actions.

14 termini
📂
sottocategorie

Exploration vs Exploitation

Stratégies pour équilibrer l'exploration de nouvelles actions et l'exploitation des connaissances acquises.

9 termini
📂
sottocategorie

Processus Décisionnels Markoviens

Framework mathématique formel modélisant les problèmes de décision séquentielle en environnement stochastique.

19 termini
📂
sottocategorie

Apprentissage Multi-agents

Extension de l'apprentissage par renforcement à des environnements avec plusieurs agents interagissant.

16 termini
📂
sottocategorie

Processus Observables Partiellement

Généralisation des MDP où l'état n'est que partiellement observable, nécessitant des croyances sur l'état.

14 termini
📂
sottocategorie

Méthodes de Gradient de Politique

Optimisation directe des paramètres de politique en suivant le gradient des performances attendues.

8 termini
📂
sottocategorie

Éligibility Traces

Mécanisme combinant avantages de TD et Monte Carlo pour accélérer l'apprentissage via crédit temporel.

17 termini
📂
sottocategorie

Factorisation de la Valeur

Décomposition de la fonction Q en valeur d'état et avantage pour améliorer la stabilité de l'apprentissage.

15 termini
🔍

Nessun risultato trovato