🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

投毒攻击

一种攻击技术,将恶意数据注入训练集,以降低模型性能或引入特定漏洞。

📖
術語

后门注入

一种在训练数据中插入特定触发器的方法,用于创建仅在触发器存在时才会激活的潜在恶意行为。

📖
術語

标签损坏攻击

一种投毒策略,攻击者故意修改训练数据的标签,以误导模型并损害其分类准确性。

📖
術語

因果投毒攻击

一种复杂的投毒方法,操纵特征之间的因果关系,以有针对性地影响模型的预测。

📖
術語

鲁棒性防御

一系列旨在使人工智能模型能够抵抗投毒攻击的技术,通过限制恶意数据对学习过程的影响。

📖
術語

训练异常检测

在训练之前或期间,识别并消除训练集中异常或潜在恶意数据点的过程。

📖
術語

鲁棒交叉验证

一种强化的验证技术,通过评估模型在不同数据分区下的稳定性,以检测潜在的恶意污染。

📖
術語

含噪数据学习

一种学习范式,旨在即使训练集中存在损坏或故意修改的数据,仍能保持最佳性能。

📖
術語

数据集净化

在模型训练前,系统性地清洗训练数据以识别并消除潜在被污染样本的过程。

📖
術語

可认证模型

一种人工智能模型架构,能够在特定条件下针对投毒攻击提供数学上的鲁棒性保证。

📖
術語

诱导过拟合攻击

一种投毒技术,迫使模型过度学习攻击者引入的特定模式,从而损害其泛化能力。

📖
術語

过滤防御

一种保护机制,应用统计或启发式过滤器,在将可疑数据纳入学习过程之前将其消除。

📖
術語

针对性投毒

一种旨在专门损害特定类别或特定输入的预测,同时保持整体性能的投毒攻击。

📖
術語

无差别投毒

一种旨在全面降低模型性能的攻击,无特定目标,通常通过在训练数据中引入系统性噪声来实现。

📖
術語

增量重训练防御

一种保护策略,持续使用经过验证的新数据更新模型,同时监控可能表明投毒的性能漂移。

📖
術語

反向传播攻击

一种高级技术,攻击者计算对训练数据的最优修改,以最大化对模型最终权重的影响。

📖
術語

外部验证防御

一种保护方法,使用独立且未被破坏的验证集来检测由投毒攻击引起的性能下降。

🔍

搵唔到結果