Glossário IA
O dicionário completo da Inteligência Artificial
Bootstrap Aggregating
Método estatístico que combina o reamostragem bootstrap e a agregação das previsões de múltiplos modelos treinados nesses amostras para estabilizar os resultados.
Échantillonnage avec remise
Técnica de criação de amostras bootstrap onde cada observação pode ser selecionada várias vezes, permitindo uma diversidade máxima dos subconjuntos de treinamento.
Out-of-Bag (OOB)
Amostra de observações não selecionadas durante a criação de um bootstrap específico, usado como conjunto de validação interno para avaliar o desempenho sem validação cruzada externa.
Erreur OOB
Métrica de avaliação calculada ao agregar as previsões sobre as amostras out-of-bag para cada observação, fornecendo uma estimativa não enviesada do erro de generalização.
Agrégation par vote majoritaire
Método de combinação das previsões em classificação onde cada modelo vota por uma classe e a classe majoritária é selecionada como previsão final.
Agrégation par moyenne
Técnica de combinação em regressão onde as previsões numéricas de todos os modelos são médias para produzir uma previsão final mais estável.
Parallélisation
Vantagem computacional do bagging que permite o treinamento simultâneo dos modelos em diferentes processadores ou máquinas porque eles são independentes entre si.
Sous-espaces aléatoires
Extensão do bagging onde cada modelo usa apenas um subconjunto aleatório das características, aumentando a diversidade e reduzindo a correlação entre as previsões.
Árvores de decisão não podadas
Aprendizes básicos usados no bagging mantidos em sua complexidade máxima sem poda, pois a agregação compensará o overfitting individual.
Estabilidade do modelo
Propriedade melhorada pelo bagging na qual as previsões do modelo final variam menos diante de pequenas alterações nos dados de treinamento.
Floresta aleatória extrema
Variante da floresta aleatória na qual os limites de divisão das variáveis são escolhidos aleatoriamente em vez de serem otimizados, aumentando a diversidade em detrimento do viés.
Correlação dos preditores
Fator-chave na eficácia do bagging, no qual uma correlação mais baixa entre as previsões dos modelos básicos resulta em melhor redução da variância.
Tamanho do conjunto
Número de modelos no bagging, onde um número maior reduz a variância, mas com retornos decrescentes e aumento do custo computacional.
Amostras bootstrap
Conjuntos de dados criados por amostragem com reposição do conjunto de treinamento original, cada um contendo aproximadamente 63,2% das observações únicas.
Hibridação bagging-boosting
Abordagens que combinam os princípios do bagging e do boosting para explorar simultaneamente a redução de variância e a redução de viés.
Variância empírica
Métrica que mede a dispersão das previsões dos diferentes modelos básicos antes da agregação, servindo como indicador do ganho potencial do bagging.