🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

对抗样本攻击

一种在输入数据中引入不可察觉的扰动以欺骗机器学习模型的技术。这些攻击通过微妙地操纵图像像素来利用深度神经网络的漏洞。

📖
个术语

对抗补丁攻击

一种攻击技术,将物理或数字补丁应用于图像以欺骗分类或检测模型。与像素扰动不同,该方法以可见方式修改图像的特定区域,但会被模型错误解释。

📖
个术语

通用攻击

一种攻击类型,单一扰动能够欺骗模型对大多数输入图像的判断。这些攻击特别危险,因为它们不需要为每张新图像重新计算扰动。

📖
个术语

目标检测攻击

专门设计用于欺骗目标检测模型的攻击,通过操纵边界框或置信度分数。这些攻击可以使检测到的物体消失或产生虚假物体。

📖
个术语

梯度掩蔽

一种现象,防御模型人为地平滑其决策表面,使梯度无法用于攻击。虽然看似具有保护作用,但这种技术通常可被绕过,并可能产生虚假的安全感。

📖
个术语

Lp扰动

使用不同数学范数(L0、L2、L无穷)来度量对抗扰动幅度的方式。每种范数对图像中允许的修改性质和分布施加不同的约束。

📖
个术语

语义分割攻击

针对语义分割模型的攻击,逐像素修改图像的分类。这些攻击可以改变对轮廓和语义区域的感知,影响自动驾驶或医学成像等应用。

📖
个术语

攻击可迁移性

一种现象,针对特定模型生成的攻击对其他模型仍然有效,即使架构不同。这一特性对黑盒攻击至关重要,揭示了模型之间的共同漏洞。

🔍

未找到结果