Infrastructure ML
Model Serving Framework
Outil spécialisé (ex: TensorFlow Serving, TorchServe, Triton Inference Server) conçu pour déployer, servir et gérer efficacement des modèles de ML en production, en gérant le versionnement et le chargement dynamique.
← पीछे