🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📖
pojęcia

Erreur Temporelle Différentielle (TD Error)

Différence entre la valeur estimée avant et après une mise à jour TD, servant de signal d'apprentissage pour ajuster les estimations de valeur vers une meilleure prédiction des retours futurs.

📖
pojęcia

Bootstrapping

Technique où une estimation est mise à jour en se basant sur une autre estimation actuelle, permettant un apprentissage en ligne et plus rapide que les méthodes attendant les retours finaux.

📖
pojęcia

Combinaison TD-MC

Stratégie hybride qui tire parti du faible biais du bootstrapping TD et de la faible variance des méthodes Monte Carlo pour un apprentissage plus stable et efficace dans les tâches épisodiques.

📖
pojęcia

Algorithme TD(λ)

Généralisation des méthodes TD qui pondère les n-uplets de retours futurs selon un facteur de trace d'éligibilité λ, permettant un compromis continu entre TD(0) et Monte Carlo.

📖
pojęcia

Trace d'Éligibilité

Mécanisme de mémoire qui suit les états ou actions récemment visités, permettant de propager l'erreur TD en arrière dans le temps pour accélérer l'apprentissage.

📖
pojęcia

Biais-Variance Trade-off

Dilemme fondamental où la réduction du biais (via le bootstrapping TD) augmente la variance, et vice versa (via les méthodes MC), nécessitant un équilibre pour une performance optimale.

📖
pojęcia

Mise à Jour On-Policy

Processus d'apprentissage où la politique évaluée est la même que celle utilisée pour générer les données, comme dans les algorithmes SARSA et TD(λ) on-policy.

📖
pojęcia

Fonction de Valeur d'État (V(s))

Estimation du retour attendu en partant d'un état s et en suivant une politique donnée, servant de base aux mises à jour TD pour l'évaluation de politique.

📖
pojęcia

Algorithme Q-learning

Méthode TD off-policy qui apprend directement la fonction de valeur optimale en utilisant la meilleure action possible dans l'état suivant, indépendamment de la politique suivie.

📖
pojęcia

Valeur de Retour (Gt)

Somme actualisée des récompenses futures obtenues à partir du pas de temps t, constituant la cible d'apprentissage pour les méthodes Monte Carlo et TD.

📖
pojęcia

Cible TD

Estimation utilisée pour mettre à jour la valeur actuelle dans les algorithmes TD, combinant la récompense immédiate avec une estimation de la valeur future (ex: R + γV(s')).

🔍

Nie znaleziono wyników