Glosario IA
El diccionario completo de la Inteligencia Artificial
Pruebas A/B para Modelos
Técnica de despliegue comparativo donde dos versiones de un modelo se prueban simultáneamente en segmentos de usuarios distintos para evaluar sus rendimiento relativos en condiciones reales.
Inferencia en Línea
Modo de inferencia en tiempo real donde el modelo procesa las predicciones individuales bajo demanda con una latencia mínima, típicamente mediante API REST o gRPC.
Inferencia por Lotes
Enfoque de inferencia donde las predicciones se generan para lotes de datos a intervalos regulares, optimizada para el rendimiento en lugar de la latencia individual.
Inferencia sin Servidor
Arquitectura de despliegue donde la infraestructura de cálculo se gestiona automáticamente por el proveedor de la nube, con facturación por uso y escalabilidad automática basada en la demanda.
Despliegue de IA en el Borde
Despliegue de modelos ML en dispositivos periféricos (dispositivos edge) para ejecutar la inferencia localmente, reduciendo la latencia y la dependencia de la red mientras se preserva la confidencialidad de los datos.
Servicio de Modelos
Infraestructura y procesos que permiten exponer los modelos ML mediante endpoints API para la inferencia en producción, incluyendo la carga, la gestión del ciclo de vida y la optimización.
Escalado Automático para ML
Mecanismo de adaptación dinámica de los recursos de cálculo según la carga de inferencia, utilizando métricas específicas como el número de solicitudes o la latencia.
Observabilidad de Modelos
Capacidad para comprender el estado interno y el comportamiento de los modelos en producción mediante registros, métricas y trazas detalladas para la depuración y optimización.
Despliegue gradual
Estrategia de despliegue controlado donde la exposición del nuevo modelo aumenta progresivamente (10%, 25%, 50%, 100%) con validación en cada etapa.
Serialización de modelos
Proceso de conversión del modelo entrenado a formato almacenable y transportable (Pickle, ONNX, SavedModel) para el despliegue y la inferencia en producción.
Pipeline de inferencia
Secuencia de pasos de procesamiento aplicados a los datos de entrada antes y después de la predicción del modelo, incluyendo el preprocesamiento, la inferencia y el postprocesamiento.