Robustez de los Modelos
Enmascaramiento de gradiente
Técnica de defensa que modifica o enmascara los gradientes del modelo para impedir que los atacantes calculen perturbaciones adversariales efectivas. Aunque puede parecer efectiva, este enfoque es a menudo evadible por ataques más sofisticados.
← Volver