Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Defensive Distillation
Méthode de défense entraînant un réseau à apprendre les probabilités douces d'un modèle pré-entraîné, réduisant la sensibilité aux perturbations adversariales en lissant la surface de décision.
Obfuscated Gradients
Phénomène où les défenses masquent intentionnellement ou accidentellement les gradients, créant une fausse impression de robustesse tout en restant vulnérable à des attaques alternatives.
Gradient Shattering
Technique introduisant des discontinuités ou des oscillations dans le paysage des gradients pour perturber les méthodes d'attaque basées sur l'optimisation itérative.
Gradient Regularization
Approche pénalisant les gradients élevés pendant l'entraînement pour réduire la sensibilité du modèle aux petites perturbations d'entrée et améliorer la robustesse globale.
Randomized Smoothing
Méthode certifiant la robustesse en ajoutant du bruit aléatoire aux entrées et en utilisant des techniques de lissage gaussien pour garantir des bornes de certifiabilité contre les attaques adversariales.
Input Transformation
Défense appliquant des transformations non-différentiables ou inversibles aux entrées avant classification, comme la compression ou le rééchantillonnage, pour neutraliser les perturbations adversariales.
Feature Squeezing
Technique réduisant la complexité des caractéristiques d'entrée en diminuant la précision des pixels ou l'espace de couleur, éliminant ainsi les perturbations imperceptibles utilisées dans les attaques.
Non-differentiable Defense
Stratégie de protection intégrant des opérations non-différentiables dans le pipeline de classification pour empêcher le calcul efficace de gradients par les attaquants.
Gradient Obfuscation
Ensemble de techniques rendant les gradients inexploitables par des méthodes numériques, incluant masquage, écrasement ou falsification des informations de gradient.
Certified Defenses
Approches fournissant des garanties mathématiques prouvables sur la robustesse du modèle dans un rayon de perturbation spécifié, évitant les fausses impressions de sécurité.
Jacobian-based Saliency Map Attack Defense
Contre-mesures spécifiquement conçues pour neutraliser les attaques basées sur les cartes de saillance jacobienne en modifiant la structure du réseau ou les mécanismes de propagation.
PGD-based Robustness
Évaluation et amélioration de la robustesse en utilisant Projected Gradient Descent comme attaque de référence pour mesurer et optimiser la résistance du modèle.
Ensemble Methods
Utilisation de multiples modèles avec différentes architectures ou initialisations pour diversifier les réponses et réduire l'efficacité des attaques ciblant un unique point faible.
Lipschitz Continuity
Propriété mathématique garantissant une variation limitée des sorties par rapport aux entrées, utilisée pour concevoir des réseaux intrinsèquement robustes aux perturbations.
Provably Robust Networks
Architectures neuronales conçues avec des contraintes formelles garantissant mathématiquement leur robustesse dans des conditions spécifiées de perturbation.
Gradient-free Optimization Attacks
Méthodes d'attaque contournant le masquage de gradient en utilisant des approches d'optimisation sans gradient comme les algorithmes génétiques ou le recuit simulé.
Thermometer Encoding
Technique de codage des entrées transformant les caractéristiques continues en représentations binaires ordonnées, réduisant l'espace d'attaque et améliorant la robustesse.