AI用語集
人工知能の完全辞典
MobileNet
モバイルおよび組み込みアプリケーション用に特別に設計された畳み込みニューラルネットワークアーキテクチャ。深さ方向分離可能な畳み込みを使用して、パラメータ数と計算量を大幅に削減する。
SqueezeNet
AlexNetの精度を50倍少ないパラメータで達成する超軽量CNNアーキテクチャ。空間的特徴を圧縮してから拡張する「fire」モジュールを使用する。
Fire Module
SqueezeNetの基本モジュール。次元を削減する「squeeze」層(1x1畳み込み)と、次元を拡張する「expand」層(1x1と3x3畳み込みの混合)で構成される。
Quantization
モデルの重みと活性化の数値精度を低下させるプロセス(通常32ビットから8ビットへ)。モデルサイズを削減し、推論を高速化する。
Pruning
訓練されたニューラルネットワークの不要な接続やニューロンを刈り込む技術。性能の大幅な損失なしに複雑さを削減する。
Model Compression
AIモデルのサイズと計算複雑さを精度を維持しながら削減する一連の技術。限られたデバイスへの展開に不可欠。
Edge Computing
クラウドではなく端末デバイスで処理を実行する計算パラダイム。レイテンシを削減し、データのプライバシーを保護する。
On-device Inference
サーバー接続なしにモデルの予測を端末(スマートフォン、IoT)で直接実行。即時応答とオフライン動作を保証する。
レイテンシ
データ入力から結果取得までの経過時間。スムーズなユーザー体験のために低レイテンシ(<100ms)が求められるモバイルアプリケーションにおける重要な指標。
スループット
モデルが単位時間あたりに処理できる推論または操作の数。リソース制約下でのモデルの性能を評価するための主要な指標。
パラメータ効率
モデルの性能とパラメータ数の比率。ネットワークが特定の精度を達成するためにどれだけ効率的に重みを使用しているかを測定する。
FLOPs
推論あたりに必要な浮動小数点演算の数。異なるCNNアーキテクチャの計算複雑さを比較するための標準的な指標。
モデルサイズ最適化
アーキテクチャ技術、量子化、圧縮によるモデルのメモリサイズを体系的に削減するプロセス。モバイルのストレージ制約に適応させるため。
ニューラルアーキテクチャサーチ
特定の制約(レイテンシ、サイズ、消費電力)に対して最適なニューラルアーキテクチャの設計を自動化する手法。特にモバイルモデルで有用。
EfficientNet
深さ、幅、解像度を最適にバランスさせることで、計算効率を最大化しつつ優れた性能を達成するCNNアーキテクチャのファミリー。
ShuffleNet
チャネルシャッフル機構を持つpointwiseグループ畳み込みを使用して、特徴量の豊かさを維持しながら計算コストを削減する超軽量アーキテクチャ。