Robustez de los Modelos
Aprendizaje Automático Adversarial
Campo de estudio de las vulnerabilidades de los modelos de aprendizaje automático frente a ataques maliciosos diseñados para engañar o degradar su rendimiento. Esta disciplina desarrolla simultáneamente técnicas de ataque y estrategias de defensa para fortalecer la seguridad de los sistemas de IA.
← Volver