Glossário IA
O dicionário completo da Inteligência Artificial
Pasting Ensemble
Método de ensemble que constrói múltiplos modelos em subconjuntos aleatórios dos dados de treinamento, sem reposição, para reduzir a variância e melhorar a generalização.
Amostragem sem Reposição
Técnica de seleção de observações onde cada elemento escolhido é removido da população, garantindo subconjuntos únicos como no pasting.
Amostragem com Reposição
Método onde as observações podem ser selecionadas múltiplas vezes na mesma amostra, característica fundamental do bagging.
Subconjunto de Treinamento
Porção dos dados de treinamento utilizada para construir um modelo individual em um método de ensemble, com ou sem reposição dependendo da técnica.
Agregação de Previsões
Processo de combinação das previsões individuais dos modelos de ensemble, tipicamente por votação majoritária (classificação) ou média (regressão).
Diversidade dos Modelos
Princípio segundo o qual os modelos de ensemble devem ser diferentes para que a agregação seja eficaz, obtido por subconjuntos de dados variados.
Amostragem de Subespaço Aleatório
Extensão do bagging onde os modelos são treinados em subconjuntos aleatórios de características além dos subconjuntos de observações.
Pasting de Amostras Pequenas
Variante do pasting que utiliza subconjuntos de tamanho reduzido para acelerar o treinamento enquanto mantém a diversidade dos modelos.
Variância do Modelo
Sensibilidade do modelo às variações nos dados de treinamento, que métodos de ensemble como o bagging procuram especificamente reduzir.
Estabilidade das Previsões
Capacidade de um modelo produzir previsões consistentes diante de pequenas variações nos dados de treinamento, melhorada pelos métodos de ensemble.
Treinamento de Ensemble Paralelo
Vantagem do bagging e do pasting que permite o treinamento simultâneo dos modelos base em diferentes subconjuntos de dados.
Complexidade da Amostra
Número de amostras necessárias para atingir um certo desempenho, potencialmente reduzido por métodos de ensemble eficazes.