🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

锚点 (Anchors)

一种识别简单且充分的决策规则(锚点)的方法,这些规则能够以高保真度解释模型对给定实例的预测。

📖
術語

夏普利值

博弈论中的一个概念,用于衡量一个参与者(特征)在所有可能联盟中的平均边际贡献,是SHAP方法的基础。

📖
術語

输入扰动

在输入数据中创建微小变化以观察其对模型预测影响的过程,被LIME等方法用于构建局部邻域。

📖
術語

保真度 (Fidelity)

一种度量标准,用于评估局部解释(如LIME的简单模型)在其邻域内模仿复杂模型行为的忠实程度。

📖
術語

模型无关解释

一种可解释性方法,它将预测模型视为黑箱,仅通过与其输入和输出进行交互来生成解释。

📖
術語

显著性图 (Saliency Map)

一种可视化方法,用于突显输入中对模型预测影响最大的像素或特征,通常通过梯度计算获得。

📖
術語

核邻域

在LIME中,该函数定义了原始实例与扰动实例之间的邻近度,并据此在局部解释模型中对它们的影响进行加权。

📖
術語

解释规则 (Explanation Rule)

一个简单的逻辑条件(例如:IF feature_A > X AND feature_B < Y),它捕获了特定预测的主要原因,是Anchors等方法的典型产物。

📖
術語

后可解释性

在模型训练后对其进行分析以理解其决策,与内在可解释模型相对。

📖
術語

SHAP核解释器

SHAP的一种实现,使用核权重来估计Shapley值,使其与模型无关但可能更慢。

📖
術語

SHAP树解释器

一种优化的SHAP算法,非常有效地计算基于树的模型(如XGBoost、LightGBM)的精确Shapley值。

📖
術語

代理局部解释

LIME的基本原理,即训练一个简单且可解释的代理模型,在局部近似复杂模型的行为。

🔍

搵唔到結果