Glosario IA
El diccionario completo de la Inteligencia Artificial
Bagging
Técnica de conjunto que crea múltiples modelos sobre muestras bootstrap del conjunto de datos original y agrega sus predicciones por votación mayoritaria o promedio.
Boosting
Método secuencial donde cada modelo aprende de los errores del anterior, ponderando más los ejemplos mal clasificados para mejorar progresivamente el rendimiento.
Apilamiento
Enfoque que combina las predicciones de varios modelos base a través de un meta-modelo que aprende a optimizar sus pesos para obtener mejores predicciones finales.
Random Forest
Conjunto de árboles de decisión que utiliza bagging con selección aleatoria de características en cada división, reduciendo la varianza y evitando el sobreajuste.
Gradient Boosting
Algoritmo de boosting que construye secuencialmente modelos que aprenden a corregir los residuos del modelo anterior mediante descenso de gradiente.
AdaBoost
Adaptive Boosting que ajusta los pesos de los ejemplos de entrenamiento y de los clasificadores débiles para centrarse en los casos difíciles de clasificar.
XGBoost
Implementación optimizada de gradient boosting con regularización L1/L2, procesamiento paralelo y gestión eficiente de valores ausentes.
LightGBM
Framework de gradient boosting que utiliza crecimiento leaf-wise y algoritmos basados en histogramas para un entrenamiento rápido y eficiente en grandes conjuntos de datos.
CatBoost
Algoritmo de gradient boosting especializado en el procesamiento automático de variables categóricas sin codificación previa.
Clasificadores por Votación
Método de conjunto que combina las predicciones de varios clasificadores mediante votación mayoritaria (votación dura) o probabilidades promedio (votación blanda).
Extra Trees
Árboles Extremadamente Aleatorios que utilizan cortes aleatorios completos para cada división sin bootstrap, aumentando la diversidad y reduciendo el sesgo.
Blending
Variante del stacking que utiliza un conjunto de validación hold-out para entrenar el meta-modelo en lugar de la validación cruzada, más simple pero menos robusta.
Selección Dinámica de Conjuntos
Métodos que seleccionan dinámicamente un subconjunto de modelos competentes para cada nueva instancia a predecir, optimizando el rendimiento local.
Diversidad de Conjunto
Técnicas que miden y maximizan la diversidad entre modelos base para mejorar la robustez del conjunto y reducir los errores correlacionados.
Métodos de Conjunto Híbridos
Combinación de diferentes técnicas de conjunto (bagging + boosting) o integración de otros paradigmas como las redes neuronales.