AI用語集
人工知能の完全辞典
アンカー (Anchors)
観測値の近傍において確率的に同じ予測を保証する、単純かつ十分な決定ルール(アンカー)を提供するローカルな説明手法。LIMEよりも安定した解釈を提供します。
シャープレイ値
SHAPの基本的な理論概念。モデル内の全ての特徴量の組み合わせ(提携)に対して、ある特徴量がもたらす限界的貢献度の平均値を表し、重要度の公平な配分を保証します。
ローカルサロゲート説明
特定の予測の狭い近傍においてのみ、複雑なモデルの振る舞いを近似するために、単純で解釈可能なモデル(決定木や線形回帰など)を訓練するアプローチ。
観測値の近傍
特定の観測値の周囲で定義されるデータ空間。ローカルな解釈手法がこの狭い領域でモデルの振る舞いを近似するために、変動を生成するために使用されます。
ローカル忠実度
ローカルな説明(サロゲートモデルなど)が、説明対象の観測値の近傍において、元のモデルの予測をどの程度正確に再現しているかを評価する指標。
TreeSHAP
決定木ベースのモデルのために最適化されたSHAPアルゴリズムの変種。これらのモデルの内在的な構造を利用することで、シャープレイ値をはるかに高速に正確に計算できます。
KernelSHAP
重み付け関数(カーネル)を使用してシャープレイ値を近似的に推定するSHAPの実装。モデルに依存せず任意のモデルに適用できますが、計算コストはより高くなります。
DeepSHAP
ディープラーニングモデルのために特別に設計されたSHAPの適応版。シャープレイ値とバックプロパゲーション技術を組み合わせ、特徴量の寄与を効率的に計算します。
アドホックな説明
単一のインスタンスに特別に生成された局所的な説明で、モデルの全体的な動作を説明しようとするグローバルな説明とは異なり、一般化を主張しない。
局所的な特徴量の影響
特定の特徴量が単一の観測値の予測に与える影響の測定で、その特徴量の変化がこの特定のケースでモデルの結果をどのように変更するかを定量化する。
個別予測の診断
様々な局所的手法(LIME、SHAP、カウンターファクトゥアル)を使用して単一の予測を分析し、根底にあるメカニズムを理解し、意思決定を検証し、潜在的なバイアスを特定する完全なプロセス。
局所的説明の安定性
非常に類似した観測値に対して一貫した説明を生成する局所的解釈手法の特性で、個別の診断の信頼性と信頼性にとって重要な課題。
統合勾配(Integrated Gradients)
微分可能なモデルのための局所的帰属手法で、出力のその特徴量に関する勾配を基準線から入力までのパスに沿って積分することによって特徴量の重要性を計算する。
基準線(ベースライン)
統合勾配などの帰属手法で使用される参照点(多くの場合、ゼロベクトルまたは平均インスタンス)で、特徴量の寄与を中性または期待される状態に対して測定するために使用される。