Glosario IA
El diccionario completo de la Inteligencia Artificial
Clasificador débil
Modelo de clasificación cuyo rendimiento es ligeramente superior al azar, utilizado como bloque de construcción en los algoritmos de boosting.
Pesos de entrenamiento
Valores numéricos asignados a cada ejemplo de entrenamiento para indicar su importancia relativa en la siguiente iteración del algoritmo.
Tasa de error ponderada
Medida de rendimiento de un clasificador débil calculada como la suma de los pesos de los ejemplos mal clasificados dividida por la suma total de los pesos.
Coeficiente del clasificador
Peso alfa calculado para cada clasificador débil en AdaBoost, que determina su influencia en la votación final basándose en su rendimiento.
Decision Stump
Árbol de decisión simplificado con un solo nodo y dos hojas, a menudo utilizado como clasificador débil en AdaBoost.
SAMME
Extensión multiclase de AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) que adapta el algoritmo original a problemas con más de dos clases.
Voto mayoritario ponderado
Método de agregación donde cada clasificador vota proporcionalmente a su coeficiente de confianza calculado por el algoritmo AdaBoost.
Entrenamiento iterativo
Proceso secuencial donde cada nuevo clasificador se entrena sobre los datos reponderados en función del rendimiento de los clasificadores anteriores.
Hipótesis de aprendizaje débil
Principio fundamental del boosting que establece que es posible combinar clasificadores ligeramente mejores que el azar para obtener un clasificador fuerte.
Tasa de aprendizaje AdaBoost
Parámetro de contracción (shrinkage) que controla la contribución de cada clasificador débil al modelo final, permitiendo regularizar el algoritmo.
Ponderación de instancias
Mecanismo central de AdaBoost que modifica la distribución de probabilidad sobre los ejemplos de entrenamiento para enfocarse en los casos difíciles.
Modelado Aditivo por Etapas (Stagewise Additive Modeling)
Enfoque de construcción de modelos donde los clasificadores se añaden secuencialmente sin retocar los parámetros de los clasificadores anteriores.
Robustez a los outliers
Sensibilidad de AdaBoost a los valores atípicos (outliers) debido a la ponderación exponencial creciente de los ejemplos constantemente mal clasificados.
Convergencia AdaBoost
Propiedad teórica que garantiza que el error de entrenamiento de AdaBoost disminuye exponencialmente con el número de iteraciones bajo ciertas condiciones.
Frontera de decisión aditiva
Superficie de separación final resultante de la combinación lineal ponderada de las fronteras de decisión de los clasificadores débiles.