AI 詞彙表
人工智能完整詞典
200
類別
2,608
子類別
30,011
術語
術語
白盒攻击
攻击者完全了解模型的架构、参数和权重的攻击方式,允许有针对性地利用漏洞。
術語
快速梯度符号法(FGSM)
一种白盒攻击技术,利用损失函数的梯度在单步优化中生成对抗性扰动。
術語
L-BFGS攻击
一种基于有限内存BFGS优化算法的白盒攻击方法,用于寻找最小扰动的对抗样本。
術語
DeepFool
一种白盒攻击算法,通过线性逼近分类器计算到决策边界的最小距离。
術語
Carlini-Wagner攻击
一种复杂的白盒攻击,使用非线性优化生成难以检测且扰动最小的对抗样本。
術語
基于雅可比矩阵的显著图攻击(JSMA)
一种白盒攻击,利用雅可比矩阵识别最具影响力的像素,创建针对性且难以察觉的扰动。
術語
投影梯度下降(PGD)
一种迭代的白盒攻击方法,扩展FGSM,采用多步梯度下降和投影来约束扰动。
術語
模型敏感性分析
一种白盒技术,评估输入变化如何影响模型输出,以识别可利用的漏洞点。
術語
最优Lp扰动
白盒优化问题,寻找根据Lp范数(L0、L2或L∞)的最小扰动以欺骗分类器。
術語
模型提取攻击
白盒攻击,对抗者访问内部参数以复制或窃取训练模型的完整功能。
術語
白盒模型后门
在白盒可访问模型中故意引入的漏洞,可由攻击者已知的特定触发器激活。
術語
梯度反转攻击
白盒攻击,通过反转模型梯度重建原始训练数据,损害数据隐私。
術語
完全逃逸方法
白盒攻击策略,利用模型的全部知识创建对抗样本,确保绕过分类器。
術語
成员推断攻击
白盒攻击,通过分析模型的详细响应来确定特定样本是否属于训练数据。
術語
白盒通用扰动
在白盒环境下生成的单一扰动,利用对分类器的完整知识能够在广泛输入上欺骗模型。
🔍