Glosario IA
El diccionario completo de la Inteligencia Artificial
Deriva de Datos
Cambio de la distribución estadística de los datos de entrada en producción en comparación con los datos de entrenamiento, pudiendo degradar el rendimiento del modelo. Es crucial detectarlo para mantener la relevancia de las predicciones.
Deriva de Concepto
Evolución de la relación entre las variables de entrada y la variable objetivo, donde el significado o el contexto del problema cambia. Este tipo de deriva es más insidioso ya que las distribuciones de entrada pueden permanecer estables.
Monitoreo del Rendimiento
Seguimiento continuo de las métricas de evaluación del modelo (precisión, recall, puntuación F1, etc.) sobre los datos reales para identificar cualquier degradación. Permite activar alertas y acciones de reentrenamiento.
Panel de Control ML (ML Dashboard)
Interfaz de visualización centralizada que agrega las métricas clave de monitoreo, las alertas de deriva y el estado de salud de los modelos en producción. Facilita la toma de decisiones para los equipos MLOps.
Alerta Automatizada
Sistema de notificación activado por umbrales predefinidos sobre las métricas de rendimiento o los indicadores de deriva. Asegura una reactividad rápida ante anomalías en el comportamiento del modelo.
Métrica de Estabilidad
Indicador que cuantifica la similitud entre la distribución de los datos actuales y la de referencia (entrenamiento). Métricas como la Divergencia de Kullback-Leibler o el índice de estabilidad de la población se utilizan comúnmente.
Análisis de Importancia de Características
Monitoreo de la evolución del impacto de cada variable de entrada en las predicciones del modelo. Un cambio repentino puede indicar una deriva de datos o una modificación del comportamiento del modelo.
Explicabilidad en Producción
Monitoreo de las explicaciones de las predicciones (ej: SHAP, LIME) para asegurar que el modelo sigue utilizando las mismas lógicas y características. Es esencial para la confianza y la auditabilidad de sistemas críticos.
Detección de Anomalías de Predicciones
Identificación de predicciones aberrantes o de confianza anormalmente baja, que pueden señalar una degradación del modelo o la presencia de datos fuera de su distribución conocida. Es una capa de seguridad para la automatización.
Latencia de Predicción
Métrica que mide el tiempo transcurrido entre la recepción de una solicitud y el retorno de la predicción por el modelo. Su monitorización es vital para las aplicaciones en tiempo real donde una latencia alta impacta la experiencia del usuario.
Sesgo en Producción
Vigilancia continua de los indicadores de equidad y sesgo del modelo sobre datos reales para asegurar que no discrimine a ciertas poblaciones. La monitorización es necesaria ya que el sesgo puede emerger o amplificarse con el drift.
Registro Estructurado
Registro de entradas, predicciones, metadatos y métricas de rendimiento en un formato estructurado (ej: JSON). Esto facilita el análisis post-mortem, la depuración y la alimentación de los pipelines de monitorización.
Versionamiento de Modelos
Seguimiento y gestión de las diferentes versiones de un modelo entrenado, a menudo a través de un registro de modelos (Model Registry). La monitorización debe ser capaz de distinguir el rendimiento de cada versión desplegada.
Bucle de Retroalimentación
Proceso de recolección de retroalimentación sobre las predicciones del modelo (correcciones, anotaciones) para alimentar futuros ciclos de entrenamiento. La monitorización de la calidad y el volumen de esta retroalimentación es un indicador de salud del sistema.