🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

XAI (可解释人工智能)

旨在使人工智能系统决策对人类可理解的技术和方法集合,对于信任和可接受性至关重要。

📖
个术语

可解释性

模型以人类可理解方式呈现其决策的能力,区别于关注内部机制理解的透明性。

📖
个术语

后验解释

在模型训练后应用的解释方法,不修改其架构,能够解释黑盒模型的预测。

📖
个术语

SHAP (夏普利加性解释)

基于博弈论的理论方法,以加性和一致的方式分配模型预测中每个特征的重要性。

📖
个术语

LIME (局部可解释模型不可知解释)

局部解释技术,通过在特定预测邻域内使用简单可解释的模型来近似复杂模型的行为。

📖
个术语

影响因子

在系统中直接促成了特定推荐生成的具体元素(项目、属性、过去行为)。

📖
个术语

反向解释

解释为什么某些项目未被推荐,帮助用户理解系统的限制和排除标准。

📖
个术语

因果论证

基于用户行为与生成推荐之间因果关系而非简单相关性的解释。

📖
个术语

基于知识的方法

使用本体或知识图谱生成语义丰富且上下文相关解释的推荐方法。

📖
个术语

解释可视化

将算法理由转换为直观视觉元素的交互式图形表示,以方便用户理解。

📖
个术语

解释个性化

根据每个用户的个人资料、偏好和专业知识,调整解释的内容、风格和详细程度。

📖
个术语

解释的定性评估

基于用户研究、访谈和内容分析的评估方法,用于衡量解释的相关性和感知实用性。

📖
个术语

解释性反馈

允许用户对提供的解释做出反应的机制,从而完善未来推荐和理由的质量。

📖
个术语

解释复杂性

衡量理解解释所需认知难度的指标,评估技术准确性与用户可访问性之间的权衡。

📖
个术语

算法透明度

揭示推荐系统底层机制、数据和逻辑的原则,以确保其可追溯性和可审计性。

📖
个术语

算法信任

用户对系统的可信度和可靠性水平,直接受所提供解释的质量和相关性影响。

📖
个术语

内在解释

在设计之初就旨在可解释的模型,与事后方法不同,它们原生集成了解释能力。

📖
个术语

解释性关联规则

通过展示行为与项目之间发现的关系来证明推荐合理性的逻辑规则(IF-THEN)集合。

📖
个术语

解释性偏差

生成解释中的系统性扭曲,可能会过度代表某些因素或最小化其他因素,从而影响对系统的公平感知。

🔍

未找到结果