AI用語集
人工知能の完全辞典
忠実性 (Faithfulness)
説明がモデルの内部の推論を忠実に反映する度合い。説明の予測が、摂動されたデータ上でのモデルの予測と一致するかどうかを評価する。
理解容易性 (Comprehensibility)
人間が説明を理解しやすさを測る主観的または客観的な尺度。通常、説明モデルの複雑さ(例:ルール数、木の深さ)に関連する。
十分性 (Sufficiency)
説明によって特定された特徴のサブセットが、モデルの元の予測を維持できる能力。これらの特徴が決定を正当化するのに十分であることを示す。
必要性 (Necessity)
説明によって重要と特定された特徴(または特徴のセット)が存在しない場合、モデルの予測が大幅に変化するかどうかを評価する。
因果推論スコア (CIS)
変数に対する介入の影響をテストすることで、説明が単なる相関関係ではなく、実際の因果関係を特定する能力を定量化するメトリクス。
説明の堅牢性 (Explanation Robustness)
モデルまたは入力データが敵対的攻撃やノイズを受けたときの説明の変化を測定し、解釈の操作への耐性を評価する。
特徴のコヒーレンス (Feature Coherence)
説明によって重要と判断された特徴が、意味的または論理的に互いに一貫しているかどうかを評価し、説明全体の妥当性を高める。
選択性率 (Selectivity Rate)
説明によって使用される特徴またはルールの割合を測定し、利用可能な総数に対する指標。簡潔な説明を好む。
関連性関数
モデルの最終的な予測に対する特徴または特徴セットの寄与を定量化する数学的関数で、多くの解釈可能性メトリクスの基礎となります。
評価者間一致度
統計的測定(例:コーエンのカッパスコア)で、説明の品質や正しさに関する異なる人間の専門家間の合意レベルを評価し、その主観性を検証します。
確認バイアス
モデルに疑問を投げかけることなく、説明がユーザーの既存の信念のみを強化するかどうかを評価するメトリクスで、誤った解釈のリスクを測定します。
識別力
予測に正の影響を与える特徴と負の影響を与える特徴を明確に区別する説明の能力で、解釈の明確さを向上させます。
グローバル忠実度
データ空間全体にわたるモデルのグローバルな動作を忠実に表現する説明の能力を評価しますが、多くの場合、ローカルな精度を犠牲にします。
対事実スコア
モデルの予測を変更するために必要な最小限の摂動と生成されたシナリオの妥当性に基づいて、対事実的説明の品質を評価するメトリクスです。
意味的深さ
説明の抽象度レベルを測定し、低レベルの特徴(ピクセル)に基づいているか、より理解しやすい高レベルの概念(オブジェクト、アイデア)に基づいているかを定量化します。