🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

算法公平性

旨在确保人工智能系统为所有个人或群体产生公平和非歧视性结果的基本原则,无论其受保护特征如何。

📖
術語

算法偏见

算法预测或决策中的系统性偏差,不公平地偏向或偏向某些群体,通常源于有偏见的训练数据或不适当的设计。

📖
術語

人口统计均等

要求不同人口群体之间积极结果比例相同的公平标准,无论实际个人特征如何。

📖
術語

机会均等

确保不同群体之间的真正阳性率和假阳性率相等的公平原则,保证所有群体的预测性能相似。

📖
術語

校准公平性

要求对于每个给定的预测分数,所有相关人口群体的实际结果概率相同的公平度量。

📖
術語

反事实公平性

评估如果个体的受保护特征不同而其他属性保持不变,预测是否会保持不变的公平方法。

📖
術語

个体公平性

规定相似个体应通过人工智能系统接受类似处理或预测的原则,确保个体层面的一致性。

📖
術語

群体公平性

评估不同人口群体是否从人工智能系统获得统计相似结果的公平度量,不考虑特定个人特征。

📖
術語

不成比例的影响

算法对不同人群产生的负面或正面影响不平等,通过各群体结果率之间的统计差距来衡量。

📖
術語

分配正义

应用于人工智能的哲学概念,确保算法系统产生的资源、机会或利益在所有相关群体之间公平分配。

📖
術語

程序公平

确保算法决策过程透明、一致且允许申诉的原则,独立于产生的结果。

📖
術語

预测公平

确保正确预测比例对所有群体都相同的标准,保证预测在不同人群中具有可靠的公平性。

📖
術語

算法特权

算法赋予某些群体或个人的系统性优势,源于模型设计或训练中的隐性偏见。

📖
術語

公平对待

基本原则,要求人工智能系统以公正一致的方式对待所有人,不因受保护或敏感特征而歧视。

📖
術語

意识公平

一种方法论,在模型设计和评估中明确融入对潜在偏见和受保护特征的认识,以确保公平结果。

📖
術語

算法歧视

人工智能系统对某些群体的差别化和不公正对待,源于创造或延续系统不平等的算法决策。

📖
術語

纵向公平

确保人工智能系统的公平性随时间推移得以维持的原则,避免随着模型的演变出现新的偏见或加剧现有不平等。

🔍

搵唔到結果