AI用語集
人工知能の完全辞典
説明の忠実性
説明を生成するために使用された解釈可能なモデルとブラックボックスモデルの予測間の対応を定量化する尺度。高い忠実性は、説明が元のモデルの挙動を考慮された局所領域で忠実に表現していることを示す。
説明の安定性
類似したインスタンス、または同じインスタンスのわずかな変動に対して生成された説明の一貫性を評価する指標。安定性は、入力データの微小な変化に対して説明が不安定に変動しないことを保証する。
説明の完全性
モデルの決定に影響を与えるすべての関連要因を捕捉する説明能力を測定する指標。完全な説明は、重要な要素を省略することなく、すべての有意な特徴を統合しなければならない。
意味的関連性
生成された説明とドメイン知識または期待される人間の推論との間の一貫性を評価する。この指標は、生成された説明がドメイン専門家の論理と直感に沿っているかどうかを定量化する。
説明のコンパクト性
提供される情報量とその構造的複雑さの比率を評価する、説明の簡潔さの尺度。コンパクトな説明は、情報の冗長性を最小限に抑えながら、最も関連性の高い要素を優先する。
説明の頑健性
入力データに対する摂動や敵対的攻撃に対して説明がその有効性を維持する能力。この指標は、誤解を招くことを目的とした悪意のある操作に対する説明の耐性を評価する。
粒度の細かさ
説明が作用する詳細レベルで、グローバルな説明(モデル全体)からローカルな説明(特定のインスタンス)までを範囲とする。粒度の細かさは、提供される解釈の精度と特異性を決定する。
説明間の一貫性
様々だが意味的に近いインスタンスに対して生成された異なる説明間の論理的一貫性を評価する尺度。この指標は、説明が合理的で矛盾のないパターンに従うことを保証する。
知覚された使いやすさ
ユーザーが生成された説明を理解し、解釈し、適用できる容易さを測定する定性的指標。知覚された使いやすさは、説明の技術的複雑さとユーザーの認知能力の適合性を評価する。
説明の検証可能性
モデルによって提供された説明の妥当性を独立して確認または否定する能力。検証可能性により、ユーザーは外部知識や実証的テストと比較して説明の一貫性を検証できる。
説明ギャップ
モデルの内在的な複雑さとその説明の単純さとの間の定量的な差。高いギャップは、説明の簡略化プロセスにおける重要な情報の損失を示す可能性がある。
因果的特異性
説明が単なる相関関係ではなく、因果関係を正しく特定するかどうかを評価する尺度。因果的特異性は、実際に決定に影響を与える要因と、単に同時発生する要因を区別する。
説明の一般化
局所的な説明がデータセット内の他の類似インスタンスに一貫して適用される能力。この指標は、特定された説明パターンが研究対象の特定ケースを超えて外挿できるかどうかを評価する。
説明の信頼性
説明が正しい確率を示す、説明に関連付けられた定量化された確信レベル。説明の信頼性により、ユーザーはシステムによって提供される解釈の信頼性を評価できる。
説明の公平性
生成された説明が異なる人口統計グループまたはサブ集団を公平に扱うかどうかを評価する指標。説明の公平性は、決定が正当化される方法に差別的バイアスがないことを保証する。
説明のカバレッジ
モデルが有効な説明を生成できる特徴空間またはインスタンスの割合。高いカバレッジは、説明システムが実際に遭遇するケースの大半で動作できることを保証する。
説明生成レイテンシ
モデルが予測を生成した後に説明を生成するために必要な計算時間。リアルタイムアプリケーションでは、説明を迅速に提供する必要があるため、この指標は重要です。
反事実的忠実度
必要な変更の最小性と生成されたシナリオの妥当性の観点から、反事実的説明の品質を評価する特定の指標。この指標は、提案された反事実が現実的で実行可能であることを保証します。