Défense par Gradient Masking
Gradient Regularization
Approche pénalisant les gradients élevés pendant l'entraînement pour réduire la sensibilité du modèle aux petites perturbations d'entrée et améliorer la robustesse globale.
← Retour