Ataques sobre NLP
Enmascaramiento de gradiente
Técnica de defensa que modifica el gradiente del modelo para prevenir ataques basados en la optimización, sin necesariamente mejorar la robustez real.
← Volver