Model Deployment
Batch Inference
Approche d'inférence où les prédictions sont générées pour des lots de données à intervalles réguliers, optimisée pour le débit plutôt que la latence individuelle.
← 뒤로