AI 詞彙表
人工智能完整詞典
Accuracy Robustesse
Métrique évaluant la performance d'un modèle sur des exemples adversariaux générés dans une certaine borne de perturbation, mesurant ainsi sa résistance aux attaques. Cette métrique combine la précision classique avec une évaluation sous contraintes de perturbation pour quantifier la dégradation des performances.
Distance d'Attaque
Mesure quantitative de la perturbation minimale nécessaire pour qu'une attaque adversariale réussisse à tromper un modèle, généralement calculée selon différentes normes (L0, L1, L2, L∞). Cette métrique permet de comparer la robustesse relative entre différents modèles face aux mêmes types d'attaques.
Score de Robustesse
Indice composite normalisé entre 0 et 1 évaluant globalement la résistance d'un modèle face à un ensemble varié d'attaques adversariales. Ce score agrège plusieurs métriques de robustesse pour fournir une évaluation synthétique de la sécurité du modèle.
Métrique CLEVER
Score d'estimation de la robustesse locale basé sur les gradients Lipschitz, permettant d'évaluer une borne inférieure sur la résistance d'un modèle aux attaques sans nécessiter d'attaques spécifiques. CLEVER (Cross Lipschitz Extreme Value for nEtwork Robustness) est particulièrement efficace pour évaluer la robustesse certificative des réseaux profonds.
Benchmark AutoAttack
Suite d'évaluation standardisée automatisée combinant multiple attaques (APGD-CE, APGD-T, FAB, Square) pour fournir une évaluation robuste et fiable de la résistance des modèles. AutoAttack adapte dynamiquement ses paramètres pour maximiser l'efficacité des attaques et minimiser le gradient masking.
Évaluation de Robustesse Locale
Analyse de la résistance d'un modèle dans un voisinage spécifique autour d'un échantillon donné, déterminant si la prédiction reste constante pour toutes les perturbations dans cette région. Cette évaluation est cruciale pour comprendre le comportement du modèle au niveau individuel plutôt qu'agrégré.
Évaluation de Robustesse Globale
Mesure de la résistance d'un modèle sur l'ensemble de sa distribution d'entrée, évaluant sa performance moyenne face aux attaques sur un large échantillon de données. Cette approche fournit une vision macroscopique de la sécurité du modèle dans des conditions réelles d'utilisation.
Marge de Robustesse
Distance minimale entre la frontière de décision d'un modèle et un échantillon d'entrée, quantifiant la marge de sécurité avant qu'un changement de prédiction ne se produise. Cette métrique est fondamentale pour comprendre la stabilité géométrique des décisions du modèle.
对抗安全评分
一种标准化指标,用于评估模型针对不同对抗攻击家族的保护水平,通常根据攻击发生概率对攻击严重性进行加权。该评分有助于客观比较不同模型架构的相对安全性。
鲁棒性等级
一种标准化分类系统,用于根据模型对对抗攻击的抵抗水平进行分类,通常分为多个等级(低、中、高、可证明)。该等级便于研究人员和从业者之间就模型鲁棒性进行沟通。
脆弱性指数
一种定量指标,用于衡量模型对对抗攻击的敏感度,计算方式为攻击下性能下降与标称性能的比率。高指数表示高度脆弱,而低指数则表明更好的抵抗能力。
攻击成功率
对抗攻击成功改变模型预测的样本百分比,直接衡量针对特定模型攻击的有效性。该指标与鲁棒准确率互补,用于全面评估模型的安全性。
最大可接受扰动
模型在预测不变的情况下可容忍的最大扰动阈值,作为受控条件下评估鲁棒性的参考。该度量对于定义模型安全操作约束至关重要。
经验鲁棒性评估
一种基于生成特定对抗攻击来测试模型抵抗力的评估方法,提供实际测量但无形式化保证。该方法被广泛使用,因为它反映了真实攻击场景。
鲁棒基准测试平台
用于评估图像分类模型鲁棒性的标准化参考平台,提供严格的评估协议和比较排名。RobustBench维护经认证鲁棒的模型列表以及社区认可的评估指标。
Lp距离度量
用于量化对抗扰动幅度的数学范数,其中p可取不同值(0、1、2、∞)以测量不同类型的修改。Lp范数的选择根据所考虑扰动的性质显著影响鲁棒性评估。
Évaluation de Robustesse Formelle
Approche mathématiquement rigoureuse pour vérifier la robustesse d'un modèle en prouvant des garanties sur toutes les perturbations possibles dans un domaine spécifié. Contrairement aux méthodes empiriques, l'évaluation formelle fournit des certitudes absolues mais est souvent computablemen coûteuse.