Ataques Adversas y Defensas
Aprendizaje Adversarial
Una técnica de regularización donde el modelo se entrena con ejemplos adversariales generados dinámicamente para mejorar su robustez contra futuros ataques.
← Volver