AI 词汇表
人工智能完整词典
200
个类别
2,608
个子类别
30,011
个术语
个术语
对抗样本攻击
一种在输入数据中引入不可察觉的扰动以欺骗机器学习模型的技术。这些攻击通过微妙地操纵图像像素来利用深度神经网络的漏洞。
个术语
对抗补丁攻击
一种攻击技术,将物理或数字补丁应用于图像以欺骗分类或检测模型。与像素扰动不同,该方法以可见方式修改图像的特定区域,但会被模型错误解释。
个术语
通用攻击
一种攻击类型,单一扰动能够欺骗模型对大多数输入图像的判断。这些攻击特别危险,因为它们不需要为每张新图像重新计算扰动。
个术语
目标检测攻击
专门设计用于欺骗目标检测模型的攻击,通过操纵边界框或置信度分数。这些攻击可以使检测到的物体消失或产生虚假物体。
个术语
梯度掩蔽
一种现象,防御模型人为地平滑其决策表面,使梯度无法用于攻击。虽然看似具有保护作用,但这种技术通常可被绕过,并可能产生虚假的安全感。
个术语
Lp扰动
使用不同数学范数(L0、L2、L无穷)来度量对抗扰动幅度的方式。每种范数对图像中允许的修改性质和分布施加不同的约束。
个术语
语义分割攻击
针对语义分割模型的攻击,逐像素修改图像的分类。这些攻击可以改变对轮廓和语义区域的感知,影响自动驾驶或医学成像等应用。
个术语
攻击可迁移性
一种现象,针对特定模型生成的攻击对其他模型仍然有效,即使架构不同。这一特性对黑盒攻击至关重要,揭示了模型之间的共同漏洞。
🔍