AI 詞彙表
人工智能完整詞典
200
類別
2,608
子類別
30,011
術語
術語
投毒攻击
一种攻击技术,将恶意数据注入训练集,以降低模型性能或引入特定漏洞。
術語
后门注入
一种在训练数据中插入特定触发器的方法,用于创建仅在触发器存在时才会激活的潜在恶意行为。
術語
标签损坏攻击
一种投毒策略,攻击者故意修改训练数据的标签,以误导模型并损害其分类准确性。
術語
因果投毒攻击
一种复杂的投毒方法,操纵特征之间的因果关系,以有针对性地影响模型的预测。
術語
鲁棒性防御
一系列旨在使人工智能模型能够抵抗投毒攻击的技术,通过限制恶意数据对学习过程的影响。
術語
训练异常检测
在训练之前或期间,识别并消除训练集中异常或潜在恶意数据点的过程。
術語
鲁棒交叉验证
一种强化的验证技术,通过评估模型在不同数据分区下的稳定性,以检测潜在的恶意污染。
術語
含噪数据学习
一种学习范式,旨在即使训练集中存在损坏或故意修改的数据,仍能保持最佳性能。
術語
数据集净化
在模型训练前,系统性地清洗训练数据以识别并消除潜在被污染样本的过程。
術語
可认证模型
一种人工智能模型架构,能够在特定条件下针对投毒攻击提供数学上的鲁棒性保证。
術語
诱导过拟合攻击
一种投毒技术,迫使模型过度学习攻击者引入的特定模式,从而损害其泛化能力。
術語
过滤防御
一种保护机制,应用统计或启发式过滤器,在将可疑数据纳入学习过程之前将其消除。
術語
针对性投毒
一种旨在专门损害特定类别或特定输入的预测,同时保持整体性能的投毒攻击。
術語
无差别投毒
一种旨在全面降低模型性能的攻击,无特定目标,通常通过在训练数据中引入系统性噪声来实现。
術語
增量重训练防御
一种保护策略,持续使用经过验证的新数据更新模型,同时监控可能表明投毒的性能漂移。
術語
反向传播攻击
一种高级技术,攻击者计算对训练数据的最优修改,以最大化对模型最终权重的影响。
術語
外部验证防御
一种保护方法,使用独立且未被破坏的验证集来检测由投毒攻击引起的性能下降。
🔍