Глоссарий ИИ
Полный словарь искусственного интеллекта
CUDA
Архитектура параллельных вычислений и интерфейс программирования, созданный NVIDIA, позволяющий разработчикам использовать GPU для общих вычислений через расширения языков C/C++.
Tensor Core
Специализированные вычислительные блоки, встроенные в современные GPU NVIDIA, предназначенные для экспоненциального ускорения операций умножения и сложения матриц, которые являются основой для глубоких нейронных сетей.
ROCm
Открытая платформа вычислений для GPU AMD, предлагающая полную экосистему языков программирования (HIP), библиотек (MIOpen) и инструментов для высокопроизводительных вычислений и ИИ.
OpenCL
Открытый стандарт для написания программ, выполняемых на гетерогенных платформах, включая CPU, GPU и другие процессоры, определяющий язык на основе C99 и API для управления устройствами.
cuDNN
Ускоренная библиотека GPU для примитивов глубоких нейронных сетей, разработанная NVIDIA, предоставляющая высокооптимизированные реализации для свёрточных, пулинговых и нормализационных процедур.
Memory Bandwidth
Максимальная скорость передачи данных между GPU и его видеопамятью (VRAM), измеряемая в ГБ/с, являющаяся критическим фактором для производительности интенсивных вычислений и обучения больших моделей ИИ.
Kernel
Основная функция, выполняемая на GPU в параллельной вычислительной программе, запускаемая на сетке потоков и предназначенная для обработки определённой части данных одновременно.
Warp
Группа из 32 потоков, выполняемых в режиме SIMT (Single Instruction, Multiple Thread) на GPU NVIDIA, разделяющих один и тот же поток инструкций и составляющих базовую единицу планирования для параллельного выполнения.
Многопроцессорный потоковый процессор (SM)
Базовая вычислительная единица на GPU NVIDIA, содержащая ядра, блоки разделяемой памяти и планировщики, способная одновременно выполнять несколько блоков потоков и управлять их выполнением.
Разделяемая память
Быстрое пространство памяти с низкой задержкой, совместно используемое потоками одного блока на GPU, позволяющее взаимодействие и сокращение обращений к глобальной памяти, которая гораздо медленнее.
Единая память
Технология управления памятью, создающая единое адресное пространство между процессором и GPU, устраняющая необходимость явного копирования данных и упрощающая разработку гетерогенных приложений.
NVLink
Технология высокоскоростной межсоединения, разработанная NVIDIA, позволяющая прямую и быструю связь между несколькими GPU, превосходящую ограничения шины PCIe для распределенных вычислений.
FP16 (половинная точность)
16-битный формат чисел с плавающей запятой, используемый для ускорения вычислений и уменьшения использования памяти в нейронных сетях ценой небольшого снижения точности, которое часто является приемлемым.
CUDA Graphs
Технология, позволяющая захватывать целую последовательность операций CUDA в граф, а затем повторно выполнять ее с минимальными издержками, снижая затраты на запуск ядер для повторяющихся рабочих нагрузок.
HIP
API программирования и язык компиляции, разработанные AMD, спроектированный как портативная альтернатива CUDA, позволяющая легче переносить код CUDA на GPU AMD.
MIOpen
Библиотека оптимизации для глубоких нейронных сетей на платформе ROCm от AMD, предоставляющая высокопроизводительные реализации для слоев свертки, объединения и нормализации.
Вычислительная возможность
Номер версии, описывающий характеристики и возможности GPU NVIDIA, включая количество ядер, архитектуру, поддерживаемые инструкции и вычислительные возможности, важный для совместимости программного обеспечения.
Скоординированный доступ к памяти
Оптимизация доступа к памяти, при которой соседние потоки в варпе обращаются к смежным ячейкам памяти, позволяя объединить эти запросы в одну широкую и эффективную транзакцию памяти.