Robustesse des Modèles
Adversarial Machine Learning
Domaine d'étude des vulnérabilités des modèles d'apprentissage automatique face aux attaques malveillantes conçues pour tromper ou dégrader leurs performances. Cette discipline développe simultanément des techniques d'attaque et des stratégies de défense pour renforcer la sécurité des systèmes IA.
← Retour