Robustesse des Modèles
Masquage de gradient
Technique de défense qui modifie ou masque les gradients du modèle pour empêcher les attaquants de calculer des perturbations adversariales efficaces. Bien que pouvant sembler efficace, cette approche est souvent contournable par des attaques plus sophistiquées.
← Retour