Glossário IA
O dicionário completo da Inteligência Artificial
Bagging
Técnica de conjunto que cria múltiplos modelos em amostras bootstrap do conjunto de dados original e agrega suas previsões por votação majoritária ou média.
Boosting
Método sequencial onde cada modelo aprende com os erros do anterior, ponderando mais os exemplos mal classificados para melhorar progressivamente o desempenho.
Stacking
Abordagem que combina as previsões de vários modelos base através de um meta-modelo que aprende a otimizar os seus pesos para melhores previsões finais.
Random Forest
Conjunto de árvores de decisão utilizando bagging com seleção aleatória de características a cada divisão, reduzindo a variância e evitando o sobreajuste.
Gradient Boosting
Algoritmo de boosting que constrói sequencialmente modelos que aprendem a corrigir os resíduos do modelo anterior através da descida de gradiente.
AdaBoost
Boosting Adaptativo ajustando os pesos dos exemplos de treinamento e dos classificadores fracos para se concentrar nos casos difíceis de classificar.
XGBoost
Implementação otimizada de gradient boosting com regularização L1/L2, processamento paralelo e gerenciamento eficiente de valores ausentes.
LightGBM
Framework de gradient boosting utilizando crescimento leaf-wise e algoritmos baseados em histograma para um treinamento rápido e eficiente em grandes conjuntos de dados.
CatBoost
Algoritmo de gradient boosting especializado no tratamento automático de variáveis categóricas sem codificação prévia.
Classificadores por Votação
Método de ensemble que combina as previsões de vários classificadores por votação majoritária (hard voting) ou probabilidades médias (soft voting).
Extra Trees
Árvores Extremamente Aleatórias utilizando cortes aleatórios completos para cada divisão sem bootstrap, aumentando a diversidade e reduzindo o viés.
Blending
Variante de stacking que utiliza um conjunto de validação hold-out para treinar o meta-modelo, em vez de validação cruzada, sendo mais simples, mas menos robusta.
Seleção Dinâmica de Ensembles
Métodos que selecionam dinamicamente um subconjunto de modelos competentes para cada nova instância a ser prevista, otimizando o desempenho local.
Diversidade de Conjunto
Técnicas que medem e maximizam a diversidade entre modelos base para melhorar a robustez do conjunto e reduzir erros correlacionados.
Métodos de Ensemble Híbridos
Combinação de diferentes técnicas de ensemble (bagging + boosting) ou integração de outros paradigmas como as redes neurais.