AI用語集
人工知能の完全辞典
CUDA
NVIDIAが開発した並列コンピューティングアーキテクチャおよびプログラミングインターフェース。開発者がC/C++言語の拡張機能を通じてGPUを一般的な計算に使用できるようにする。
Tensor Core
最新のNVIDIA GPUに統合されている特殊な計算ユニット。深層学習の基礎となる行列の乗算と加算演算を指数関数的に高速化するために設計されている。
ROCm
AMD GPU向けのオープンソースコンピューティングプラットフォーム。高性能コンピューティングとAIのための、プログラミング言語(HIP)、ライブラリ(MIOpen)、ツールの完全なエコシステムを提供する。
OpenCL
CPU、GPU、その他プロセッサを含む異種プラットフォームで実行されるプログラムを記述するためのオープン標準。C99ベースの言語とデバイス管理用のAPIを定義している。
cuDNN
NVIDIAが開発した深層学習用のGPUアクセラレーテッドプリミティブライブラリ。畳み込み、プーリング、正規化ルーチン用の高度に最適化された実装を提供する。
Memory Bandwidth
メモリ帯域幅
Kernel
カーネル
Warp
ワープ
ストリームマルチプロセッサ(SM)
NVIDIA GPUの基本計算ユニットで、コア、共有メモリユニット、スケジューラを含み、複数のスレッドブロックを同時に実行し、その実行を管理する機能を備えています。
共有メモリ
GPU上で同じブロック内のスレッド間で共有される、高速で低遅延のメモリ空間で、スレッド間の連携を可能にし、はるかに遅いグローバルメモリへのアクセスを削減します。
ユニファイドメモリ
CPUとGPUの間に単一のアドレス空間を作成するメモリ管理技術で、明示的なデータコピーの必要性をなくし、ヘテロジニアスアプリケーションの開発を簡素化します。
NVLink
NVIDIAが開発した高帯域幅相互接続技術で、複数のGPU間での直接かつ高速な通信を可能にし、分散コンピューティングにおいてPCIeバスの限界を超えます。
FP16(半精度浮動小数点)
16ビットの浮動小数点数形式で、ニューラルネットワークにおける計算の高速化とメモリフットプリントの削減に使用され、多くの場合許容可能なわずかな精度の低下を引き換えにします。
CUDAグラフ
CUDA操作のシーケンス全体をグラフでキャプチャし、最小限のオーバーヘッドで再実行できる技術で、反復的なワークロードにおけるカーネル起動コストを削減します。
HIP
AMDが開発したプログラミングAPIとコンパイル言語で、CUDAのポータブルな代替として設計され、CUDAコードをAMD GPUに容易に移行できるようにします。
MIOpen
AMDのROCmプラットフォーム上の深層ニューラルネットワーク用最適化ライブラリで、畳み込み、プーリング、正規化のレイヤーに対する高性能な実装を提供します。
コンピュートキャパシティ
NVIDIA GPUの特性と機能を記述するバージョン番号で、コア数、アーキテクチャ、サポートされている命令、計算能力を含み、ソフトウェア互換性に不可欠です。
合体メモリアクセス
ワープ内の隣接するスレッドが連続したメモリ位置にアクセスし、これらの要求を単一の広くて効率的なメモリトランザクションに組み合わせることができるメモリアクセスの最適化。