AI用語集
人工知能の完全辞典
GPU (Graphics Processing Unit)
グラフィックスレンダリングのために最初に設計されたプロセッサだが、その並列アーキテクチャにより、ディープラーニングアルゴリズムの行列計算を加速するために非常に効率的である。
TPU (Tensor Processing Unit)
Googleが開発した特定の集積回路(ASIC)で、特にTensorFlowフレームワークで、行列乗算演算とニューラルネットワークの活性化を加速するように最適化されている。
Spot Instances
低コストのクラウドコンピューティングインスタンスで、変動する料金で利用可能であり、プロバイダーによって中断される可能性がある。主に中断に寛容なMLトレーニングタスクで使用される。
Auto-scaling
インフラストラクチャがワークロードに応じて動的に計算リソース(サーバー、ポッド)の数を調整する能力で、推論サービスのコストとパフォーマンスを最適化する。
Model Serving Framework
本番環境でMLモデルを効率的にデプロイ、サービス、管理するように設計された専門的なツール(例:TensorFlow Serving、TorchServe、Triton Inference Server)で、バージョニングと動的ローディングを管理する。
Hybrid Cloud
パブリッククラウドとプライベート(オンプレミス)クラウドの計算リソースを組み合わせたアーキテクチャで、企業がセキュリティ、コスト、パフォーマンスの要件に応じてMLワークロードを柔軟にできるようにする。
ML Pipeline Orchestrator
データ準備からトレーニング、デプロイまで、複雑なMLワークフローを定義、実行、監視、オーケストレーションするシステム(例:Kubeflow Pipelines、Airflow、Prefect)。
Resource Quotas
ユーザー、プロジェクト、または名前空間が消費できるCPU、GPU、メモリ、またはストレージの量を制限するクラウド/オンプレミスリソース管理メカニズムで、コスト管理と公平性のために不可欠。
コールドスタート
サーバーレス推論サービスまたは新しく読み込まれたモデルへの最初のリクエスト時に観察される初期遅延。これは、リソースのプロビジョニングとモデルのメモリへの読み込みにかかる時間が原因です。