Glossário IA
O dicionário completo da Inteligência Artificial
Aprendizagem por Reforço Guiada pela Curiosidade
Abordagem de aprendizagem por reforço onde o agente gera recompensas intrínsecas baseadas em sua curiosidade para encorajar a exploração de ambientes complexos com recompensas extrínsecas raras.
Motivação Intrínseca
Mecanismo psicológico computacional que impulsiona um agente a agir para satisfazer necessidades internas como a curiosidade, em vez de por recompensas externas específicas à tarefa.
Erro de Predição
Medida da diferença entre as previsões de um modelo do ambiente e as observações reais, usada como sinal de curiosidade para encorajar a exploração de estados inesperados.
Módulo de Curiosidade Intrínseca (ICM)
Arquitetura neural composta por modelos de dinâmica direta e inversa que geram recompensas intrínsecas baseadas na incerteza de predição para guiar a exploração.
Destilação de Rede Aleatória (RND)
Método de exploração onde uma rede neural fixa e aleatória é usada como alvo para uma rede preditora, o erro de predição servindo como recompensa intrínseca para estados novos.
Exploração Baseada em Contagem
Estratégia de exploração que atribui bônus de curiosidade inversamente proporcionais à frequência de visitação dos estados, encorajando assim a descoberta de regiões menos exploradas.
Pseudo-contagens
Estimativa aproximada das frequências de visitação de estados em espaços contínuos ou de alta dimensão, usada para implementar bônus de curiosidade baseados em contagem.
Empoderamento
Medida informacional que quantifica o controle que um agente exerce sobre seu ambiente, maximizada para encorajar comportamentos exploratórios que aumentam a influência do agente.
Information Gain
Quantité d'information nouvelle acquise par l'agent sur l'environnement, utilisée comme signal intrinsèque pour diriger l'exploration vers les régions les plus informatives.
Episodic Curiosity
Approche de curiosité basée sur la mémoire à court terme où l'agent est motivé à visiter des états différents de ceux récemment observés dans l'épisode courant.
Variational Information Maximization Exploration (VIME)
Méthode d'exploration qui maximise l'information mutuelle entre les paramètres du modèle et les observations futures, utilisant des approches bayésiennes pour quantifier l'incertitude.
State Visitation Count
Compteur du nombre de fois qu'un état particulier a été visité, utilisé pour calculer des bonus d'exploration qui favorisent la découverte d'états rares ou inexplorés.
Curiosity-Driven Exploration
Paradigme d'exploration où l'agent est guidé par des récompenses intrinsèques basées sur la nouveauté ou la surprise, plutôt que par des stratégies d'exploration aléatoires prédéfinies.
Lifelong Curiosity
Capacité d'un agent à maintenir une motivation exploratoire sur de longues périodes, adaptant continuellement ses comportements pour découvrir de nouvelles connaissances dans des environnements changeants.
Novelty Detection
Processus d'identification d'observations ou d'états significativement différents des expériences passées, servant de base pour générer des signaux de curiosité.
Go-Explore
Algorithme d'exploration qui mémorise explicitement les états visités avec les trajectoires correspondantes, puis explore systématiquement depuis ces points d'ancrage pour découvrir de nouvelles régions.