Robustez dos Modelos
Mascaramento de gradiente
Técnica de defesa que modifica ou mascara os gradientes do modelo para impedir que os atacantes calculem perturbações adversariais eficazes. Embora possa parecer eficaz, esta abordagem é frequentemente contornável por ataques mais sofisticados.
← Voltar