🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

锚点 (Anchors)

一种识别简单且充分的决策规则(锚点)的方法,这些规则能够以高保真度解释模型对给定实例的预测。

📖
个术语

夏普利值

博弈论中的一个概念,用于衡量一个参与者(特征)在所有可能联盟中的平均边际贡献,是SHAP方法的基础。

📖
个术语

输入扰动

在输入数据中创建微小变化以观察其对模型预测影响的过程,被LIME等方法用于构建局部邻域。

📖
个术语

保真度 (Fidelity)

一种度量标准,用于评估局部解释(如LIME的简单模型)在其邻域内模仿复杂模型行为的忠实程度。

📖
个术语

模型无关解释

一种可解释性方法,它将预测模型视为黑箱,仅通过与其输入和输出进行交互来生成解释。

📖
个术语

显著性图 (Saliency Map)

一种可视化方法,用于突显输入中对模型预测影响最大的像素或特征,通常通过梯度计算获得。

📖
个术语

核邻域

在LIME中,该函数定义了原始实例与扰动实例之间的邻近度,并据此在局部解释模型中对它们的影响进行加权。

📖
个术语

解释规则 (Explanation Rule)

一个简单的逻辑条件(例如:IF feature_A > X AND feature_B < Y),它捕获了特定预测的主要原因,是Anchors等方法的典型产物。

📖
个术语

后可解释性

在模型训练后对其进行分析以理解其决策,与内在可解释模型相对。

📖
个术语

SHAP核解释器

SHAP的一种实现,使用核权重来估计Shapley值,使其与模型无关但可能更慢。

📖
个术语

SHAP树解释器

一种优化的SHAP算法,非常有效地计算基于树的模型(如XGBoost、LightGBM)的精确Shapley值。

📖
个术语

代理局部解释

LIME的基本原理,即训练一个简单且可解释的代理模型,在局部近似复杂模型的行为。

🔍

未找到结果