Глоссарий ИИ
Полный словарь искусственного интеллекта
Kubernetes для машинного обучения
Оркестрация контейнеров Kubernetes, адаптированная для рабочих нагрузок машинного обучения, включая управление GPU, горизонтальное масштабирование распределенного обучения и автоматизированное развертывание моделей вывода.
Кластеризация GPU
Агрегация нескольких GPU в единый вычислительный кластер, обеспечивающий параллелизм данных и моделей для ускорения обучения масштабных глубоких нейронных сетей.
Распределенное обучение
Техника обучения моделей ML, распределяющая вычислительную нагрузку на несколько узлов, использующая такие стратегии, как параллелизм данных или параллелизм моделей для сокращения времени сходимости.
Пулирование ресурсов
Виртуализация и динамическое совместное использование вычислительных ресурсов (CPU, GPU, память) между различными задачами ML, оптимизируя использование и сокращая затраты на инфраструктуру.
Автомасштабирование ML
Механизм автоматической адаптации вычислительных ресурсов на основе метрик рабочих нагрузок ML, обеспечивающий оптимальную производительность во время пиков обучения или вывода.
Оркестрация контейнеров
Автоматизация развертывания, масштабирования и управления контейнерами приложений ML, включая обнаружение сервисов, балансировку нагрузки и отказоустойчивость.
Оптимизация вывода
Набор техник (квантизация, прореживание, дистилляция) направленных на снижение задержек и потребления памяти моделей во время фазы вывода в production.
Вывод в реальном времени
Инфраструктура, способная обеспечивать предсказания с минимальной задержкой (обычно <100мс), что критически важно для приложений таких как обнаружение мошенничества или рекомендательные системы.
Edge Computing ML
Развертывание моделей ML на периферийных устройствах для снижения задержки, сохранения конфиденциальности данных и минимизации зависимости от сетевого подключения.
Cloud Native ML
Архитектурный подход, использующий облачные нативные сервисы для полного жизненного цикла ML, от распределенного обучения до бессерверного развертывания моделей.
Model Versioning Infrastructure
Система управления версиями моделей ML с отслеживанием артефактов, метаданных обучения и возможностями отката для обеспечения прослеживаемости и воспроизводимости.
Load Balancing ML
Интеллектуальное распределение запросов на вывод между несколькими экземплярами моделей, основанное на нагрузке CPU/GPU и сложности прогнозов для оптимизации времени отклика.
Cluster Management
Мониторинг и администрирование наборов вычислительных узлов для ML, включая провижионинг, мониторинг и обслуживание кластеров для обучения и вывода.
Spot Instance Management
Стратегия использования облачных spot-инстансов по сниженной стоимости для некритических ML-задач с механизмами контрольных точек и миграции для управления прерываниями.
GPU Scheduling
Оптимизированное выделение и планирование ML-задач на доступных GPU-ресурсах, максимизирующее пропускную способность с учетом приоритетов и ограничений заданий.
Multi-Cloud ML Deployment
Стратегия развертывания моделей ML на нескольких облачных провайдерах для обеспечения избыточности, оптимизации затрат и соответствия данных нормативным требованиям.
Бессерверный ML (Serverless ML)
Архитектура машинного обучения без явного управления серверами, где инфраструктура автоматически адаптируется к нагрузке, а оплата взимается только за фактическое использование ресурсов.
Инфраструктура как код для ML (Infrastructure as Code for ML)
Автоматизация предоставления и конфигурации инфраструктуры машинного обучения с помощью декларативного кода, обеспечивающая воспроизводимость и управление версиями сред.