AI 词汇表
人工智能完整词典
解释忠实度
量化黑盒模型预测与用于生成解释的可解释模型预测之间对应关系的度量指标。高忠实度表明解释能够真实反映原始模型在局部区域的行为表现。
解释稳定性
评估对相似实例或同一实例进行轻微变化时生成解释一致性的指标。稳定性确保解释在面对输入数据的微小变化时不会出现剧烈波动。
解释完整性
衡量解释捕捉影响模型决策所有相关因素能力的度量指标。完整的解释应当包含所有重要特征而不遗漏关键要素。
语义相关性
评估生成解释与领域知识或预期人类推理之间一致性的指标。该度量量化解释是否与领域专家的逻辑和直觉保持一致。
解释紧凑性
衡量解释简洁程度的指标,评估提供信息量与其结构复杂度之间的比率。紧凑的解释优先考虑最相关要素同时最小化信息冗余。
解释鲁棒性
解释在面对输入数据扰动或对抗性攻击时保持有效性的能力。该度量评估解释抵抗旨在误导的恶意操纵的能力。
粒度精细度
解释操作的详细程度,从全局解释(整个模型)到局部解释(特定实例)。粒度精细度决定了所提供解释的精确性和特异性。
解释间一致性
评估为不同但语义相近实例生成的各种解释之间逻辑一致性的度量指标。该指标确保解释遵循合理且不矛盾的推理模式。
感知可用性
衡量用户理解、解释和应用生成解释的难易程度的定性指标。感知可用性评估解释的技术复杂性与用户认知能力之间的匹配程度。
解释可验证性
独立确认或否定模型提供解释有效性的能力。可验证性使用户能够根据外部知识或实证测试验证解释的一致性。
解释差距
模型固有复杂性与解释简洁性之间的量化差异。高差距可能表明在解释简化过程中存在显著的信息损失。
因果特异性
评估解释是否正确识别因果关系而非简单相关性的度量。因果特异性区分真正影响决策的因素与仅仅是共现的因素。
解释泛化性
局部解释能够一致地应用于数据集中其他类似实例的能力。此度量评估已识别的解释模式是否能够推广到所研究的特定案例之外。
解释置信度
与解释相关的量化置信水平,表明解释正确的概率。解释置信度使用户能够评估系统提供的解释的可靠性。
解释公平性
评估生成解释是否公平对待不同人口群体或子群体的度量。解释公平性确保决策理由中不存在歧视性偏见。
解释覆盖率
模型能够生成有效解释的特征空间或实例的比例。高覆盖率确保解释系统能够处理实践中遇到的大多数情况。
解释延迟
模型生成预测后产生解释所需的计算时间。对于需要快速提供解释的实时应用而言,该指标至关重要。
反事实保真度
评估反事实解释质量的特定指标,衡量所需变更的最小化程度和生成场景的合理性。该指标确保所提出的反事实方案既现实又可操作。