Glosario IA
El diccionario completo de la Inteligencia Artificial
Validación Cruzada K-Fold
Técnica de evaluación de modelo que divide el conjunto de datos en K particiones iguales, donde cada partición sirve alternativamente como conjunto de prueba mientras que las K-1 restantes sirven para entrenamiento. Este método permite obtener una estimación más robusta del rendimiento del modelo reduciendo la varianza de la evaluación.
Validación Cruzada K-Fold Estratificada
Variante del K-Fold que mantiene la distribución de las clases en cada partición, esencial para conjuntos de datos desequilibrados. Este enfoque garantiza que cada fold represente fielmente la distribución global de las clases del conjunto de datos original.
Método Holdout
Método simple de evaluación que divide el conjunto de datos en dos conjuntos distintos: entrenamiento y prueba, generalmente con ratios de 70/30 o 80/20. Aunque rápido de implementar, este método puede producir estimaciones de rendimiento sesgadas según cómo se particionen los datos.
Validación Cruzada Repetida
Técnica que repite el proceso K-Fold varias veces con diferentes particiones aleatorias para reducir la varianza de la estimación del rendimiento. Este enfoque combina las ventajas del K-Fold con una mayor robustez estadística a costa de un mayor coste computacional.
Validación Bootstrap
Método de evaluación que utiliza un muestreo con reemplazo para crear múltiples conjuntos de entrenamiento y prueba a partir de los datos originales. El bootstrap permite estimar la varianza del rendimiento del modelo y es particularmente útil con conjuntos de datos de pequeño tamaño.
Búsqueda en Cuadrícula con Validación Cruzada
Técnica de optimización sistemática que prueba exhaustivamente todas las combinaciones de hiperparámetros especificadas utilizando la validación cruzada para evaluar cada configuración. Este método garantiza encontrar la mejor combinación en la cuadrícula definida pero puede ser muy costosa en cálculo.
Búsqueda Aleatoria con Validación Cruzada
Alternativa a la Búsqueda en Cuadrícula que muestrea aleatoriamente un número fijo de combinaciones de hiperparámetros en lugar de explorar exhaustivamente todas las posibilidades. Este enfoque es a menudo más eficiente para encontrar buenos hiperparámetros con menos evaluaciones que la Búsqueda en Cuadrícula.
Curva de Aprendizaje
Gráfico que muestra la evolución del rendimiento del modelo en función del tamaño del conjunto de entrenamiento, utilizado para diagnosticar sobreajuste o subajuste. Las curvas de aprendizaje ayudan a determinar si más datos podrían mejorar el rendimiento del modelo.
Curva de Validación
Herramienta de diagnóstico que visualiza el impacto de un único hiperparámetro en el rendimiento de entrenamiento y validación. Las curvas de validación permiten identificar los valores óptimos de hiperparámetros y detectar problemas de sesgo-varianza.
Entropía Cruzada
Función de pérdida que mide la divergencia entre dos distribuciones de probabilidad, ampliamente utilizada en problemas de clasificación. La entropía cruzada penaliza más las predicciones incorrectas cuanto más confiadas sean, lo que la convierte en una excelente métrica de entrenamiento.
Error Cuadrático Medio
Métrica de evaluación que calcula el promedio de los cuadrados de las diferencias entre valores predichos y reales, particularmente sensible a errores grandes. El ECM se usa comúnmente para problemas de regresión y penaliza más los errores importantes que el EAM.
Error Absoluto Medio
Métrica de regresión que mide el promedio de los valores absolutos de los errores entre predicciones y valores reales, ofreciendo una interpretación directa en unidades de la variable objetivo. A diferencia del ECM, el EAM es menos sensible a valores atípicos y representa el error absoluto promedio.
Puntuación R²
Coeficiente de determinación que mide la proporción de la varianza de la variable objetivo explicada por el modelo, variando entre -∞ y 1. Un R² de 1 indica una predicción perfecta, mientras que valores negativos sugieren que el modelo funciona peor que una simple media.
Puntuación F1
Métrica de clasificación que calcula la media armónica de la precisión y la exhaustividad, particularmente útil para conjuntos de datos desequilibrados. La puntuación F1 equilibra la capacidad del modelo para evitar falsos positivos y falsos negativos en una sola medida.
Curva Precisión-Exhaustividad
Gráfico que ilustra el compromiso entre precisión y exhaustividad para diferentes umbrales de clasificación, esencial para evaluar modelos en datos desequilibrados. El área bajo esta curva (AUC-PR) proporciona una medida agregada de rendimiento independiente del umbral.
Curva ROC
Curva que representa la tasa de verdaderos positivos contra la tasa de falsos positivos en varios umbrales de decisión, visualizando la capacidad de discriminación del modelo. La curva ROC y su área (AUC-ROC) son estándares para evaluar el rendimiento global de clasificadores binarios.
Puntuación AUC
Área bajo la curva ROC que mide la probabilidad de que un clasificador asigne una puntuación más alta a una instancia positiva aleatoria que a una instancia negativa. La AUC proporciona una medida de rendimiento independiente del umbral, particularmente útil para comparar diferentes modelos.
Validación Cruzada K-Fold por Grupos
Variante de K-Fold que garantiza que los mismos grupos nunca aparezcan simultáneamente en diferentes conjuntos de entrenamiento y prueba. Este enfoque es crucial cuando los datos presentan una estructura de grupos (pacientes, usuarios) donde las observaciones del mismo grupo están correlacionadas.