AI用語集
人工知能の完全辞典
非負値行列因子分解
行列Vを2つの非負行列WとHに分解する行列分解アルゴリズムで、V ≈ WHとなります。この非負制約により、成分の加法的解釈が可能となり、結果がより解釈しやすくなります。
基底行列
NMF分解(V ≈ WH)における行列Wで、元データから抽出された基本特性を表す基底ベクトルやプロトタイプを含んでいます。この行列の各列は、データに存在する潜在的なパターンや特性を捉えます。
係数行列
NMF分解(V ≈ WH)における行列Hで、元データを再構成する際に各基底特性がどのように寄与するかを示す重みまたは活性化係数を含んでいます。これらの係数により、各サンプルを基底特性の加法的組み合わせとして表現できます。
乗法更新アルゴリズム
NMFに特化した反復的最適化アルゴリズムで、非負性を保証する乗法更新ルールを使用して行列WとHを更新します。このアルゴリズムは、行列WとHの要素を非負に保ちながら交互に最小化します。
再構成誤差
元の行列Vとその因子分解WHとの間の誤差を定量的に測定する指標で、通常フロベニウス距離やKLダイバージェンスとして計算されます。このメトリクスは最適化プロセスを導き、得られた分解の品質を評価します。
潜在特徴
NMFによって生データから発見される、観測されない根本的な成分で、本来のパターンや構造を表します。これらの特徴は分解から自然に現れ、データ内の隠れた関係を明らかにします。
スパース性
NMFで望ましい特性で、行列WまたはHの要素のほとんどがゼロまたはゼロに近い状態で、より解釈しやすい表現を促進します。スパース性制約は、最も関連性の高い特性を分離し、冗長性を削減するのに役立ちます。
直交NMF
係数行列Hに直交制約を課すNMFの変種で、データを明確なクラスタに分割することを促進します。このアプローチは特性の分離を改善し、クラスタリングタスクにおける結果の解釈を容易にします。
スパースNMF
WまたはHの行列に追加のスパース性制約を組み込むNMFの拡張。よりスパースな表現を得るために特に効果的。特徴選択と最も重要な成分の特定に特に有効。
凸NMF
基底ベクトルが元のサンプルの凸結合であるように制約されたNMFの変種。結果の解釈可能性を向上させる。このアプローチにより、発見された各特徴は入力データの加重平均として表現できることを保証する。
交互反復法
NMFにおける最適化戦略。行列WとHを交互に更新し、一方が固定されている間に他方が最適化される。このアプローチは、非負性制約を維持しながら局所最適解への収束を保証する。
局所収束
NMFアルゴリズムの特性。問題の非凸性により、大域的最適値ではなく局所的最適値に収束する。最終的な解の品質は初期化に依存し、最高の分解を見つけるために複数回の実行が必要な場合がある。
ランダム初期化
NMFアルゴリズムを開始する一般的な方法。行列WとHを非負の値でランダムに初期化する。初期化は収束と最適化後に得られる最終的な解の品質に大きな影響を与える。
分類のためのNMF
行列Hの係数を分類アルゴリズムの特徴として使用する次元削減技術としてのNMFの応用。このアプローチは、より識別的な表現を提供することで、多くの場合、分類の性能を向上させる。
クラスタリングのためのNMF
行列Hの係数をクラスタへの所属として解釈することで、データ内の自然なクラスタリング構造を発見するためのNMFの使用。各サンプルは、その表現における最大の係数に対応するクラスタに割り当てられる。
確率的NMF
ポアソン分布やガウス分布などの統計的分布を用いてデータをモデル化するNMFの確率的フレームワーク。因数分解のベイズ的解釈を提供する。このアプローチにより、事前知識を統合し、推定の不確実性を定量化できる。
正則化NMF
目的関数に正則化項を組み込んでモデルの複雑さを制御し、過学習を防ぐNMFの拡張。正則化は、分解された行列にスパース性、平滑化、またはその他の望ましい特性の制約を課すことができます。