Attaques sur NLP
Masquage de Gradient
Technique de défense qui modifie le gradient du modèle pour empêcher les attaques basées sur l'optimisation, sans nécessairement améliorer la robustesse réelle.
← Retour