Infraestructura ML
Model Serving Framework
Herramienta especializada (ej: TensorFlow Serving, TorchServe, Triton Inference Server) diseñada para desplegar, servir y gestionar eficientemente modelos de ML en producción, gestionando el versionado y la carga dinámica.
← Volver