AI 詞彙表
人工智能完整詞典
解释性对话
会话系统,用户可以针对模型预测提出一系列迭代性问题,并根据其理解水平和之前的查询获得相应的解释。
模型查询
交互式界面,允许用户针对模型行为提出特定查询,如变量在某个值范围内的影响或特定预测的条件。
对比解释
通过将预测与另一个预测或参考场景进行比较来解释预测的技术,突出说明决策变化的关键差异。
解释推理系统
认知架构,维护所提供解释和已提问问题的上下文,通过逻辑推理在对话中生成一致且不矛盾的答案。
决策探索界面
交互式可视化工具,允许用户在模型的决策空间中导航,探索输入变量的修改如何影响最终预测的轨迹。
上下文自适应解释
根据用户画像、交互历史和预测上下文,动态调整解释的详细程度、格式和内容的方法。
交互式敏感性分析
用户通过滑块或字段直接操作输入特征值的过程,实时观察这些变化对模型输出的影响。
假设情景生成器
能够创建和评估复杂"如果-那么"情景的对话模块,结合多个变量变化来模拟未来情况并解释相应结果。
交互式认知图
模型推理的可视化图形表示,其中节点是概念,边是关系,用户可以探索以理解预测的逻辑路径。
分层多层次解释
将解释结构化为多个详细层次的系统,从最抽象的概览到特征的细粒度解释,允许用户对感兴趣的方面进行'放大'。
模型调试界面
为数据科学家设计的高级对话环境,用于诊断预测错误,通过隔离问题实例并分析特征对这些错误的贡献。
解释推荐系统
基于过去的交互模式和输入数据的性质,主动为给定预测建议最相关解释类型的机制。
对话式类比解释
实时生成个性化类比或隐喻来解释模型复杂概念的技术,适应用户的语言和知识背景。
实时可解释性仪表板
随着新数据处理而持续更新可解释性指标和可视化解释的动态界面,允许对模型行为进行持续监控。
解释对话代理(XAI聊天机器人)
专门用于引导结构化对话以解释模型决策的软件实体,能够理解用户意图并制定连贯的解释性回答。
用户解释验证
请求用户对解释相关性和清晰度提供反馈的交互机制,使用此反馈来优化系统生成的未来解释。
可解释潜在空间探索
允许专家用户在复杂模型的内部表示(潜在空间)中进行导航,以可视化和理解抽象的聚类和决策边界的界面。