Глоссарий ИИ
Полный словарь искусственного интеллекта
AutoML для встраиваемых систем
Подобласть AutoML, специализирующаяся на автоматической генерации оптимизированных моделей для специфических ограничений встраиваемых устройств, включая ограниченную память, низкую вычислительную мощность и энергетические ограничения.
Квантование модели
Техника оптимизации, которая снижает числовую точность весов и активаций нейронной сети (обычно с 32-бит до 8-бит или меньше) для уменьшения размера модели и ускорения вывода на ограниченном оборудовании.
Нейронное прореживание
Процесс выборочного удаления избыточных весов или нейронов в нейронной сети для снижения её вычислительной сложности и размера памяти с сохранением точности.
Дистилляция знаний
Метод трансферного обучения, при котором большая модель-учитель обучает более компактную модель-студента, позволяя сохранить производительность большой модели в архитектуре, адаптированной для периферийных устройств (Edge).
Оптимизация вывода (инференса)
Набор техник, направленных на сокращение времени и ресурсов, необходимых для выполнения обученной модели, включая слияние операций, эффективное распределение памяти и использование аппаратного параллелизма.
NAS для Edge
Ограниченный поиск архитектуры нейронной сети, который автоматически оптимизирует структуры сетей с учётом конкретных аппаратных ограничений периферийных устройств, таких как целевая задержка и энергопотребление.
Компилятор модели
Инструмент, который преобразует графы вычислений ИИ в оптимизированный машинный код для конкретных целевых архитектур, интегрируя такие оптимизации, как квантование и слияние операций.
TensorRT
SDK для оптимизации и выполнения от NVIDIA, предназначенный для развёртывания моделей ИИ в производственной среде, использующий квантование, слияние слоёв и оптимизацию ядер для максимизации производительности на GPU NVIDIA.
TinyML
Область машинного обучения, сфокусированная на выполнении моделей ИИ на микроконтроллерах и устройствах с ультранизким энергопотреблением, как правило, с менее чем 1 МБ памяти и работающих при мощности менее 1 мВт.
Edge TPU
Аппаратный ускоритель на базе ASIC, разработанный Google специально для вывода ИИ на периферии, оптимизированный для выполнения квантованных моделей TensorFlow Lite с высокой энергоэффективностью.
Optimisation de la mémoire
Техники уменьшения следа моделей в памяти, включая разделение весов, сжатие и динамическое выделение для соответствия ограничениям встраиваемых устройств.
Latence d'inférence
Время, прошедшее между вводом данных в модель и получением её предсказания, критический параметр в приложениях реального времени на периферии, где целевые типичные значения составляют менее 10 мс.
Modèle allégé
Архитектура нейронной сети, специально разработанная для минимизации параметров и вычислительных операций, такая как MobileNet или EfficientNet, оптимизированная для развертывания на мобильных устройствах и на периферии.
Déploiement distribué
Стратегия распределения рабочих нагрузок ИИ между несколькими устройствами на периферии для оптимизации общих ресурсов и повышения масштабируемости распределенных ИИ-приложений.
Optimisation énergétique
Процесс минимизации энергопотребления моделей ИИ на устройствах на периферии, критически важный для приложений с батарейным питанием и развертываний в большом масштабе.
Edge AI
Парадигма обработки искусственного интеллекта непосредственно на периферийных устройствах, устраняющая необходимость обмена данными с облаком для критически важных задач вывода.
Микроконтроллер с ИИ
Система на кристалле сверхнизкого энергопотребления, интегрирующая специализированные аппаратные ускорители для вывода ИИ, позволяющая выполнять модели TinyML при потреблении всего несколько микроватт.
Оптимизация с учётом аппаратных особенностей
Подход AutoML, который интегрирует специфические характеристики целевого оборудования в процесс автоматического проектирования моделей, обеспечивая оптимальную совместимость и производительность.
Слияние операций
Техника компиляции, которая объединяет несколько смежных слоёв или операций в одну операцию ядра, уменьшая накладные расходы памяти и повышая вычислительную эффективность на граничных устройствах (Edge).