🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

RL^2 (Reinforcement Learning Squared)

Framework méta-apprentissage où le réseau neuronal lui-même implémente un algorithme d'apprentissage par renforcement, apprenant à s'adapter à de nouvelles tâches à partir de séquences de transitions.

📖
termer

Proximal Meta-Policy Optimization (ProMP)

Algorithme méta-apprentissage basé sur PPO qui maintient un ensemble de méta-paramètres optimisés pour une adaptation rapide aux nouvelles tâches par renforcement.

📖
termer

Inner Loop/Outer Loop

Structure d'optimisation à deux niveaux où la boucle interne adapte aux tâches spécifiques et la boucle externe méta-optimize les paramètres pour une meilleure adaptation.

📖
termer

Exploration Strategies

Mécanismes permettant à l'agent méta-apprenant d'explorer efficacement de nouvelles tâches pour collecter rapidement des informations pertinentes pour l'adaptation.

📖
termer

Few-shot Reinforcement Learning

Scénario où l'agent doit apprendre une nouvelle tâche avec très peu d'exemples ou d'interactions, typiquement 1 à 10 épisodes.

📖
termer

Meta-Actor-Critic

Architecture qui combine méta-apprentissage avec les méthodes acteur-critique, où les deux composants sont optimisés pour une adaptation rapide aux nouvelles tâches.

📖
termer

Task-Agnostic Exploration

Approche d'exploration qui ne nécessite pas de connaissance préalable de la distribution des tâches, permettant une adaptation à des tâches inattendues.

📖
termer

Meta-Value Function

Fonction de valeur paramétrée pour estimer les performances attendues d'une politique adaptée à une nouvelle tâche donnée.

🔍

Inga resultat hittades