🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📂
alt kategoriler

Q-learning

Algorithme d'apprentissage par renforcement sans modèle qui apprend la fonction de valeur action-état pour trouver la politique optimale.

16 terimler
📂
alt kategoriler

SARSA

Algorithme d'apprentissage par renforcement on-policy qui met à jour les valeurs Q en utilisant l'action réellement suivie.

13 terimler
📂
alt kategoriler

Programmation Dynamique

Méthodes mathématiques incluant l'itération de la valeur et l'itération de la politique pour résoudre les MDP.

16 terimler
📂
alt kategoriler

Méthodes Monte Carlo

Techniques d'apprentissage basées sur l'échantillonnage d'épisodes complets pour estimer les valeurs.

16 terimler
📂
alt kategoriler

Apprentissage Temporel Différentiel

Combinaison de programmation dynamique et Monte Carlo permettant des mises à jour en ligne après chaque étape.

14 terimler
📂
alt kategoriler

Double Q-learning

Variante du Q-learning utilisant deux estimateurs Q pour réduire le biais de surestimation des valeurs d'action.

16 terimler
📂
alt kategoriler

Approximation de Fonction

Extension des méthodes tabulaires aux espaces d'états continus utilisant des approximateurs comme réseaux de neurones.

12 terimler
📂
alt kategoriler

Apprentissage avec Modèle

Approches où le modèle de transition de l'environnement est connu ou appris pour planifier les actions.

14 terimler
📂
alt kategoriler

Exploration vs Exploitation

Stratégies pour équilibrer l'exploration de nouvelles actions et l'exploitation des connaissances acquises.

9 terimler
📂
alt kategoriler

Processus Décisionnels Markoviens

Framework mathématique formel modélisant les problèmes de décision séquentielle en environnement stochastique.

19 terimler
📂
alt kategoriler

Apprentissage Multi-agents

Extension de l'apprentissage par renforcement à des environnements avec plusieurs agents interagissant.

16 terimler
📂
alt kategoriler

Processus Observables Partiellement

Généralisation des MDP où l'état n'est que partiellement observable, nécessitant des croyances sur l'état.

14 terimler
📂
alt kategoriler

Méthodes de Gradient de Politique

Optimisation directe des paramètres de politique en suivant le gradient des performances attendues.

8 terimler
📂
alt kategoriler

Éligibility Traces

Mécanisme combinant avantages de TD et Monte Carlo pour accélérer l'apprentissage via crédit temporel.

17 terimler
📂
alt kategoriler

Factorisation de la Valeur

Décomposition de la fonction Q en valeur d'état et avantage pour améliorer la stabilité de l'apprentissage.

15 terimler
🔍

Sonuç bulunamadı