AI用語集
人工知能の完全辞典
多様性尺度
アンサンブル内のベースモデルの予測間の非類似性の度合いを評価する定量的尺度で、エラーの相関を防ぐために不可欠。
Q統計量
2つのバイナリ分類器間の依存性を測定する統計係数で、-1(最大多様性)から1(完全相関)まで変化し、0が独立性を示す。
相関係数
2つの分類器の予測間の線形関係を評価する統計的メトリックで、0に近い値は有益な強い多様性を示す。
不一致度
2つの分類器が異なる予測を生成するインスタンスの割合で、不一致の数を観測総数で割ったものとして計算される。
カッパ統計量
分類器間の偶然に調整された一致度の測定で、負の値は偶然で期待されるより高い多様性を示す。
エントロピー尺度
アンサンブルの予測分布を通じて多様性を評価するシャノンエントロピーに基づくメトリックで、高い値は最大の多様性を示す。
Kohavi-Wolpert分散
アンサンブルのバイナリ予測の分散に基づく多様性の測定で、ベイズ最適エラーレートとバイアス-分散分解に直接関連している。
二重誤り度
2つの分類器が同時に同じ誤りを犯すインスタンスの割合で、低い値はモデルの有益な相補性を示す。
難易度測定
アンサンブルがインスタンスを正しく分類する容易さを評価するメトリックであり、より多様性を必要とする問題のあるサンプルを特定するために使用されます。
マージンベースの多様性
分類マージンの分布を通じて多様性を測定するアプローチであり、マージンの広い分散はアンサンブルのロバスト性の向上を示します。
曖昧性分解
アンサンブルの誤差をベースモデルの平均誤差と多様性を定量化する曖昧性項に分離する数学的分解です。
誤差相関
ベースモデルの誤差ベクトル上で計算される相関係数であり、負の値はアンサンブルの性能に特に有益です。
負の相関学習
学習中にベースモデルの誤差間の負の相関を明示的に促進するペナルティ項を統合する学習技術です。
多様性促進正則化
アンサンブルの学習中にモデルの予測間の多様性を積極的に促進するために損失関数に追加される正則化項です。
直交アンサンブル学習
ベースモデルが特徴空間で直交表現を学習することを制約する方法であり、数学的に多様性を保証します。
異種アンサンブルの多様性
互いに補完的なバイアスを活用する異なるタイプのアルゴリズム(木、ニューラルネットワーク、SVM)の組み合わせから自然に生じる多様性の研究です。