Glosario IA
El diccionario completo de la Inteligencia Artificial
Bootstrap Aggregating
Método estadístico que combina el muestreo bootstrap y la agregación de predicciones de múltiples modelos entrenados en dichas muestras para estabilizar los resultados.
Muestreo con reemplazo
Técnica de creación de muestras bootstrap donde cada observación puede ser seleccionada varias veces, permitiendo una diversidad máxima de subconjuntos de entrenamiento.
Out-of-Bag (OOB)
Muestra de observaciones no seleccionadas durante la creación de un bootstrap específico, utilizada como conjunto de validación interno para evaluar el rendimiento sin necesidad de validación cruzada externa.
Error OOB
Métrica de evaluación calculada al agrupar las predicciones sobre las muestras out-of-bag para cada observación, proporcionando una estimación imparcial del error de generalización.
Agregación por voto mayoritario
Método de combinación de predicciones en clasificación donde cada modelo vota por una clase y se selecciona la clase mayoritaria como la predicción final.
Agregación por promedio
Técnica de combinación en regresión donde las predicciones numéricas de todos los modelos se promedian para producir una predicción final más estable.
Paralelización
Ventaja computacional del bagging que permite entrenar simultáneamente modelos en diferentes procesadores o máquinas ya que son independientes entre sí.
Subespacios aleatorios
Extensión del bagging donde cada modelo utiliza solo un subconjunto aleatorio de características, aumentando la diversidad y reduciendo la correlación entre las predicciones.
Arbres de décision non élagués
Apprenants de base utilisés en bagging laissés à leur complexité maximale sans élagage, car l'agrégation compensera leur sur-apprentissage individuel.
Stabilité du modèle
Propriété améliorée par le bagging où les prédictions du modèle final varient moins face aux petites variations des données d'entraînement.
Forêt aléatoire extrême
Variante du random forest où les seuils de division des variables sont choisis aléatoirement au lieu d'être optimisés, augmentant la diversité au détriment du biais.
Corrélation des prédicteurs
Facteur clé dans l'efficacité du bagging, où une corrélation plus faible entre les prédictions des modèles de base conduit à une meilleure réduction de variance.
Taille de l'ensemble
Nombre de modèles dans le bagging, où un nombre plus élevé réduit la variance mais avec des rendements décroissants et un coût computationnel accru.
Bootstrap samples
Ensembles de données créés par échantillonnage avec remise de l'ensemble d'entraînement original, chacun contenant environ 63.2% des observations uniques.
Bagging boosting hybridation
Approches combinant les principes du bagging et du boosting pour exploiter simultanément la réduction de variance et la réduction du biais.
Variance empirique
Métrique mesurant la dispersion des prédictions des différents modèles de base avant agrégation, servant d'indicateur du gain potentiel du bagging.