Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Robustesse par Transfert
Capacité d'un modèle à résister aux attaques adversariales initialement conçues pour d'autres architectures, mesurant la généralisation des défenses contre des menaces inconnues.
Modèle Source
Modèle de référence utilisé pour générer des attaques adversariales dans le contexte d'attaques par transfert, servant de point de départ pour compromettre des modèles cibles.
Modèle Cible
Modèle victime visé par une attaque par transfert, dont les vulnérabilités sont exploitées à travers des perturbations générées sur un modèle source distinct.
Espace d'Attaque
Domaine mathématique définissant toutes les perturbations possibles pouvant être appliquées aux données d'entrée pour compromettre un modèle, crucial pour évaluer la transférabilité des attaques.
Généralisation d'Attaque
Propriété d'une attaque adversariale à maintenir son efficacité sur plusieurs modèles ou instances du même modèle, indépendamment de leur architecture ou paramètres spécifiques.
Méthode de l'Ensemble
Stratégie d'attaque combinant plusieurs modèles sources pour générer des perturbations plus robustes et transférables, augmentant significativement le taux de succès contre des cibles inconnues.
Attaque No-Box
Type d'attaque par transfert extrême où l'attaquant ne dispose d'aucune information sur le modèle cible, s'appuyant uniquement sur la transférabilité universelle des perturbations.
Distance Normale
Mesure mathématique (L0, L1, L2, L∞) quantifiant l'amplitude des perturbations adversariales, essentielle pour évaluer la transférabilité tout en maintenant l'imperceptibilité de l'attaque.
Borne de Transférabilité
Limite théorique supérieure quantifiant le taux de succès maximal d'une attaque par transfert entre deux modèles, basée sur leurs similarités structurelles et fonctionnelles.
Diversité de Modèles
Mesure de variation entre architectures, paramètres et ensembles de données d'entraînement de différents modèles, influençant directement la transférabilité des attaques adversariales.
Alignement de Gradients
Similarité directionnelle entre les gradients de différents modèles, servant d'indicateur prédictif de la transférabilité potentielle des attaques entre ces modèles.
Défense par Transfert
Approche défensive exploitant la transférabilité des attaques pour développer des protections robustes fonctionnant contre des menaces inconnues et futures modèles d'attaque.
Evasion de Modèle
Objectif des attaques par transfert consistant à contourner les mécanismes de détection ou classification d'un modèle sans être détecté, en exploitant ses faiblesses généralisées.
Surface de Décision
Frontière mathématique séparant les différentes classes de prédiction d'un modèle, dont la similarité entre modèles détermine le succès potentiel des attaques par transfert.
Sensibilité par Transfert
Mesure quantitative de la vulnérabilité partagée entre différents modèles face aux mêmes perturbations adversariales, révélatrice de faiblesses systémiques dans l'apprentissage automatique.
Métrique de Transférabilité
Indicateur quantitatif évaluant la probabilité de succès d'une attaque générée sur un modèle source à compromettre un modèle cible, basé sur des similarités structurelles ou comportementales.