Glossário IA
O dicionário completo da Inteligência Artificial
Aprendizagem fraca
Classificador cujo desempenho é ligeiramente superior ao acaso (geralmente > 50% de precisão), utilizado como elemento básico nos algoritmos de boosting.
Ponderação adaptativa
Mecanismo que ajusta os pesos das observações de treinamento em cada iteração para dar mais importância aos exemplos difíceis de classificar.
Taxa de aprendizado
Parâmetro que controla a contribuição de cada classificador fraco no modelo final, permitindo regular a velocidade de convergência e evitar o overfitting.
Erro de classificação ponderado
Medida de desempenho que leva em conta os pesos das observações para avaliar a performance de um classificador fraco no AdaBoost.
Stumps de decisão
Árvores de decisão com um único nó e duas folhas, frequentemente utilizadas como classificadores fracos no AdaBoost por sua simplicidade e eficiência.
Margem de classificação
Medida de confiança de uma predição representando a diferença entre o score da classe correta e o score máximo das outras classes.
Função de perda exponencial
Função de custo utilizada no AdaBoost que penaliza exponencialmente os erros de classificação, incentivando uma correção agressiva dos exemplos mal classificados.
Algoritmo SAMME
Modelagem Aditiva por Estágios usando uma função de perda exponencial multiclasse, extensão do AdaBoost para problemas de classificação multiclasse.
Observations difficiles
Exemplos de treinamento que são sistematicamente classificados incorretamente pelos modelos anteriores e, por isso, recebem peso aumentado nas próximas iterações.
Séquentialité
Característica fundamental do boosting em que cada classificador depende dos anteriores, diferentemente das abordagens paralelas como o bagging.
Alpha de pondération
Coeficiente calculado para cada classificador fraco com base em seu erro de classificação, determinando seu peso na votação final do modelo.
Frontière de décision complexe
Resultado da combinação de classificadores simples que permite modelar relações complexas e não lineares nos dados.
Normalisation des poids
Processo que ajusta os pesos das observações após cada iteração para que somem 1, assegurando uma distribuição de probabilidade válida.
Robustesse au bruit
Capacidade do AdaBoost de lidar com dados ruidosos, embora possa ser sensível a valores atípicos ao atribuir-lhes grande peso.
Convergence rapide
Propriedade do AdaBoost que alcança frequentemente bom desempenho com relativamente poucas iterações graças à otimização direta da perda exponencial.