Glosario IA
El diccionario completo de la Inteligencia Artificial
Error Fuera de la Bolsa (Out-of-Bag Error)
Error de validación calculado sobre las observaciones no seleccionadas durante un muestreo bootstrap, constituyendo una estimación no sesgada del error de generalización del modelo. El error OOB sirve como alternativa a la validación cruzada en métodos de conjunto como Random Forest.
Agregación Bootstrap (Bagging)
Método de conjunto que entrena múltiples modelos sobre diferentes muestras bootstrap y combina sus predicciones por voto mayoritario o promediado para reducir la varianza y mejorar la estabilidad predictiva. Bagging es particularmente efectivo para algoritmos inestables como árboles de decisión.
Intervalo de Confianza Bootstrap
Intervalo de confianza estimado por remuestreo bootstrap para cuantificar la incertidumbre de los parámetros del modelo o las métricas de rendimiento. Existen varios métodos: percentil, BCa e intervalos bootstrap básicos.
Validación Jackknife
Técnica de remuestreo sistemático donde cada observación es omitida una por una para estimar el sesgo y la varianza de un estimador, considerada como una aproximación del bootstrap. El jackknife es menos costoso computacionalmente pero menos flexible que el bootstrap.
Validación por Permutación
Método de validación no paramétrico que evalúa la significancia estadística de un modelo permutando aleatoriamente las etiquetas objetivo para crear una distribución nula de rendimiento. Esta técnica permite probar si el modelo realmente aprende patrones significativos.
Corrección de Sesgo Bootstrap
Procedimiento que utiliza el bootstrap para estimar y corregir el sesgo de un estimador o una métrica de evaluación del modelo. Esta corrección mejora la precisión de las estimaciones particularmente en muestras pequeñas.
Bootstrap BCa (Bias-Corrected and Accelerated)
Método bootstrap avanzado que ajusta los intervalos de confianza corrigiendo el sesgo y la aceleración (asimetría) de la distribución bootstrap. BCa proporciona intervalos más precisos que el método percentil estándar.
Bootstrap Paramétrico
Variante del bootstrap donde las muestras se generan a partir de una distribución paramétrica ajustada a los datos en lugar de un remuestreo directo. Este método es útil cuando el modelo subyacente de los datos es conocido o supuesto.
Bootstrap No Paramétrico
Enfoque bootstrap clásico que remuestrea directamente con reemplazo desde los datos observados sin hacer suposiciones sobre la distribución subyacente. Este método es más flexible y robusto ante violaciones de las suposiciones distribucionales.
Distribución de Muestreo Bootstrap
Distribución empírica de una estadística obtenida calculando esta estadística en múltiples muestras bootstrap, permitiendo estimar la variabilidad y las propiedades asintóticas del estimador. Esta distribución sirve como base para las inferencias bootstrap.
Error Estándar Bootstrap
Estimación del error estándar de una estadística calculada como la desviación estándar de su distribución bootstrap, proporcionando una medida de precisión robusta ante suposiciones distribucionales. Esta estimación es particularmente útil para estadísticas complejas.
Prueba de Hipótesis Bootstrap
Enfoque de prueba de hipótesis que utiliza el bootstrap para generar la distribución bajo la hipótesis nula y calcular los valores p de manera no paramétrica. Este método evita aproximaciones asintóticas y funciona con estadísticas de prueba complejas.
Selección de Modelo Bootstrap
Proceso de selección de modelo que utiliza el bootstrap para evaluar la estabilidad y el rendimiento comparativo de diferentes modelos candidatos en múltiples remuestreos. Este enfoque cuantifica la incertidumbre en el proceso de selección mismo.
Análisis de Potencia Bootstrap
Evaluación de la potencia estadística de una prueba o modelo simulando múltiples muestras bootstrap bajo diferentes alternativas hipotéticas. Este método permite estimar el tamaño de muestra requerido sin suposiciones distribucionales restrictivas.
Calibración Bootstrap
Técnica de ajuste de las probabilidades predichas por un modelo de clasificación utilizando el bootstrap para estimar y corregir el sesgo de calibración. Este método mejora la fiabilidad de los puntajes de probabilidad del modelo.
Métodos de Conjunto Bootstrap
Familia de algoritmos que combinan bootstrap y agregación para reducir la varianza de las predicciones, incluyendo Random Forest, Extra Trees y otros métodos basados en muestras bootstrap. Estos métodos explotan la diversidad creada por el remuestreo.
Importancia de Características Bootstrap
Evaluación de la importancia de las variables midiendo su impacto en el rendimiento del modelo a través de múltiples muestras bootstrap, proporcionando intervalos de confianza para la importancia. Este enfoque cuantifica la estabilidad de la importancia de las características.
Estabilidad del Modelo Bootstrap
Medida de la robustez de un modelo evaluada por la coherencia de sus predicciones o parámetros a través de diferentes muestras bootstrap. La estabilidad es crucial para la confianza en los despliegues reales del modelo.
Bootstrap.632+
Variante avanzada del bootstrap que corrige el sesgo optimista de la estimación del error combinando el error bootstrap y el error aparente con un peso de 0.632, ajustado para el sobreajuste. Este método proporciona estimaciones de error más precisas.