🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

RL^2 (Reinforcement Learning Squared)

Framework méta-apprentissage où le réseau neuronal lui-même implémente un algorithme d'apprentissage par renforcement, apprenant à s'adapter à de nouvelles tâches à partir de séquences de transitions.

📖
terimler

Proximal Meta-Policy Optimization (ProMP)

Algorithme méta-apprentissage basé sur PPO qui maintient un ensemble de méta-paramètres optimisés pour une adaptation rapide aux nouvelles tâches par renforcement.

📖
terimler

Inner Loop/Outer Loop

Structure d'optimisation à deux niveaux où la boucle interne adapte aux tâches spécifiques et la boucle externe méta-optimize les paramètres pour une meilleure adaptation.

📖
terimler

Exploration Strategies

Mécanismes permettant à l'agent méta-apprenant d'explorer efficacement de nouvelles tâches pour collecter rapidement des informations pertinentes pour l'adaptation.

📖
terimler

Few-shot Reinforcement Learning

Scénario où l'agent doit apprendre une nouvelle tâche avec très peu d'exemples ou d'interactions, typiquement 1 à 10 épisodes.

📖
terimler

Meta-Actor-Critic

Architecture qui combine méta-apprentissage avec les méthodes acteur-critique, où les deux composants sont optimisés pour une adaptation rapide aux nouvelles tâches.

📖
terimler

Task-Agnostic Exploration

Approche d'exploration qui ne nécessite pas de connaissance préalable de la distribution des tâches, permettant une adaptation à des tâches inattendues.

📖
terimler

Meta-Value Function

Fonction de valeur paramétrée pour estimer les performances attendues d'une politique adaptée à une nouvelle tâche donnée.

🔍

Sonuç bulunamadı