Glossário IA
O dicionário completo da Inteligência Artificial
Otimização de Hiperparâmetros
Processo automatizado de busca dos melhores hiperparâmetros para um modelo de aprendizado usando técnicas como otimização bayesiana, busca aleatória ou meta-aprendizado.
Espaço de Configuração
Conjunto estruturado de todas as combinações possíveis de hiperparâmetros para um algoritmo de aprendizado, incluindo as restrições, dependências e domínios de valores válidos.
Modelo Substituto
Modelo aproximado usado na otimização bayesiana para estimar a função de desempenho dispendiosa de avaliar, permitindo explorar eficientemente o espaço de hiperparâmetros.
Warm-Starting
Técnica de inicialização da otimização de hiperparâmetros usando conhecimentos de tarefas semelhantes ou otimizações anteriores para acelerar a convergência.
Aprendiz Base
Modelo de aprendizado de máquina cujos hiperparâmetros são otimizados pelo sistema de meta-aprendizado, servindo como alvo para as recomendações de configuração.
Meta-Aprendizado Baseado em Desempenho
Abordagem que usa o desempenho histórico das configurações em diferentes tarefas para aprender a prever as melhores configurações para novas tarefas semelhantes.
Otimização Multi-Fidelidade
Estratégia de otimização que usa aproximações de baixo custo (baixa fidelidade) para avaliar rapidamente as configurações antes de validar as mais promissoras com avaliações de alta fidelidade.
Meta-Conjunto de Dados
Coleção estruturada de metadados sobre múltiplas tarefas de aprendizado, incluindo as características dos conjuntos de dados e o desempenho das configurações de hiperparâmetros.
Otimização de Hiperparâmetros Few-Shot
Abordagem de meta-aprendizado que permite otimizar hiperparâmetros com pouquíssimas avaliações na tarefa alvo, transferindo conhecimentos de um grande número de tarefas de origem.
Função de Aquisição
Função utilizada na otimização bayesiana guiada por meta-aprendizado para equilibrar exploração e exploração, selecionando as configurações de hiperparâmetros a serem avaliadas.