🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

内在解释

在模型设计阶段直接将可解释性融入模型结构的方法,使模型自然透明。

📖
術語

黑盒模型

内部工作机制不透明或复杂的AI系统,难以直接理解其决策机制。

📖
術語

白盒模型

本质上透明的模型,其内部机制和决策过程可直接观察和理解。

📖
術語

敏感性分析

一种后验技术,评估输入特征的变化如何影响模型预测,以识别影响因素。

📖
術語

本质可解释模型

为透明性而设计的本质架构,如决策树或线性回归,无需外部解释。

📖
術語

局部近似

后验方法,通过创建简单模型来近似复杂模型在特定预测邻域内的行为,从而解释特定预测。

📖
術語

全局近似

后验方法,旨在创建一个简化模型,模仿复杂模型在其整个输入空间中的一般行为。

📖
術語

扰动方法

后验技术,通过系统修改输入特征来分析其对预测的影响,以理解这些特征在决策中的作用。

📖
術語

显著性图

后处理可视化,显示在模型特定预测中,输入数据中最具影响力的区域或特征。

📖
術語

可解释决策树

使用if-then规则层次结构进行决策的内在模型,提供完整的推理可追溯性。

📖
術語

反事实分析

后处理方法,识别输入特征所需的最小修改,以将模型预测改变为不同结果。

📖
術語

代理模型

简单可解释的后处理模型,训练用于模仿复杂模型的行为,作为便于解释的近似。

📖
術語

可解释混合模型

内在架构,将复杂组件与内置解释机制相结合,以平衡性能和透明度。

📖
術語

特征归因

后处理过程,为每个输入特征分配贡献分数,以解释它们在特定预测中的个体作用。

🔍

搵唔到結果