🏠 Trang chủ
Benchmark
📊 Tất cả benchmark 🦖 Khủng long v1 🦖 Khủng long v2 ✅ Ứng dụng To-Do List 🎨 Trang tự do sáng tạo 🎯 FSACB - Trình diễn cuối cùng 🌍 Benchmark dịch thuật
Mô hình
🏆 Top 10 mô hình 🆓 Mô hình miễn phí 📋 Tất cả mô hình ⚙️ Kilo Code
Tài nguyên
💬 Thư viện prompt 📖 Thuật ngữ AI 🔗 Liên kết hữu ích

Thuật ngữ AI

Từ điển đầy đủ về Trí tuệ nhân tạo

162
danh mục
2.032
danh mục con
23.060
thuật ngữ
📖
thuật ngữ

Table Q

Structure de données bidimensionnelle stockant les valeurs Q pour chaque paire état-action, utilisée dans les versions tabulaires du Q-learning pour les espaces discrets.

📖
thuật ngữ

Mise à jour de Bellman

Équation d'itération de la valeur qui met à jour la fonction Q en utilisant la récompense immédiate et la valeur Q maximale de l'état suivant, pondérée par le facteur d'escompte.

📖
thuật ngữ

Taux d'apprentissage alpha

Paramètre α ∈ [0,1] contrôlant l'importance des nouvelles informations dans la mise à jour des valeurs Q, déterminant la vitesse de convergence de l'algorithme.

📖
thuật ngữ

Facteur d'escompte gamma

Paramètre γ ∈ [0,1] qui pondère l'importance des récompenses futures par rapport aux récompenses immédiates dans le calcul des valeurs Q.

📖
thuật ngữ

Stratégie epsilon-greedy

Politique d'action qui choisit l'action optimale avec probabilité 1-ε et une action aléatoire avec probabilité ε, permettant un compromis contrôlé entre exploration et exploitation.

📖
thuật ngữ

Convergence du Q-learning

Propriété théorique garantissant que les valeurs Q convergent vers les valeurs Q optimales sous certaines conditions, notamment un taux d'apprentissage décroissant et une exploration suffisante.

📖
thuật ngữ

Apprentissage sans modèle

Approche où l'agent apprend directement la politique ou la fonction de valeur sans construire de modèle explicite de la dynamique de l'environnement.

📖
thuật ngữ

Processus de décision de Markov

Cadre mathématique pour modéliser les problèmes de décision séquentiels où les états futurs dépendent uniquement de l'état actuel et de l'action, respectant la propriété de Markov.

📖
thuật ngữ

Récompense retardée

Concept où les actions peuvent générer des récompenses immédiates faibles mais des récompenses futures élevées, nécessitant une planification à long terme dans l'apprentissage.

📖
thuật ngữ

État terminal

État absorbant qui met fin à un épisode d'apprentissage, après lequel aucune action supplémentaire n'est possible et où la fonction Q n'est plus mise à jour.

📖
thuật ngữ

Q-valeur initiale

Valeur assignée à chaque paire état-action au début de l'apprentissage, qui peut influencer la vitesse de convergence et le comportement d'exploration initial.

📖
thuật ngữ

Décroissance d'epsilon

Stratégie de réduction progressive du paramètre ε dans la politique epsilon-greedy pour favoriser l'exploration initiale et l'exploitation finale pendant l'apprentissage.

📖
thuật ngữ

Max-opérateur

Opération mathématique dans la mise à jour Q-learning qui sélectionne la valeur Q maximale parmi toutes les actions possibles de l'état suivant pour estimer les récompenses futures.

📖
thuật ngữ

Q-learning double

Variante du Q-learning utilisant deux fonctions Q pour réduire le biais de surestimation en découplant la sélection de l'action de son évaluation.

📖
thuật ngữ

Horizon temporel infini

Condition où les épisodes n'ont pas de fin prédéfinie, nécessitant un facteur d'escompte γ < 1 pour assurer la convergence des valeurs Q.

📖
thuật ngữ

Biais d'optimisme

Phénomène où les estimations Q sont initialement optimistes, encourageant l'exploration car les actions moins essayées semblent artificiellement attractives.

🔍

Không tìm thấy kết quả