🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

白盒攻击

攻击者完全了解模型的架构、参数和权重的攻击方式,允许有针对性地利用漏洞。

📖
術語

快速梯度符号法(FGSM)

一种白盒攻击技术,利用损失函数的梯度在单步优化中生成对抗性扰动。

📖
術語

L-BFGS攻击

一种基于有限内存BFGS优化算法的白盒攻击方法,用于寻找最小扰动的对抗样本。

📖
術語

DeepFool

一种白盒攻击算法,通过线性逼近分类器计算到决策边界的最小距离。

📖
術語

Carlini-Wagner攻击

一种复杂的白盒攻击,使用非线性优化生成难以检测且扰动最小的对抗样本。

📖
術語

基于雅可比矩阵的显著图攻击(JSMA)

一种白盒攻击,利用雅可比矩阵识别最具影响力的像素,创建针对性且难以察觉的扰动。

📖
術語

投影梯度下降(PGD)

一种迭代的白盒攻击方法,扩展FGSM,采用多步梯度下降和投影来约束扰动。

📖
術語

模型敏感性分析

一种白盒技术,评估输入变化如何影响模型输出,以识别可利用的漏洞点。

📖
術語

最优Lp扰动

白盒优化问题,寻找根据Lp范数(L0、L2或L∞)的最小扰动以欺骗分类器。

📖
術語

模型提取攻击

白盒攻击,对抗者访问内部参数以复制或窃取训练模型的完整功能。

📖
術語

白盒模型后门

在白盒可访问模型中故意引入的漏洞,可由攻击者已知的特定触发器激活。

📖
術語

梯度反转攻击

白盒攻击,通过反转模型梯度重建原始训练数据,损害数据隐私。

📖
術語

完全逃逸方法

白盒攻击策略,利用模型的全部知识创建对抗样本,确保绕过分类器。

📖
術語

成员推断攻击

白盒攻击,通过分析模型的详细响应来确定特定样本是否属于训练数据。

📖
術語

白盒通用扰动

在白盒环境下生成的单一扰动,利用对分类器的完整知识能够在广泛输入上欺骗模型。

🔍

搵唔到結果