Słownik AI
Kompletny słownik sztucznej inteligencji
FGSM (Fast Gradient Sign Method)
Méthode de génération d'exemples adversariaux utilisant le signe du gradient de la fonction de perte par rapport aux entrées pour créer des perturbations maximales dans les limites d'une norme epsilon.
PGD (Projected Gradient Descent)
Algorithme d'attaque itératif basé sur FGSM qui applique plusieurs petites étapes de gradient avec projection pour garantir que les perturbations restent dans une borne prédéfinie.
Robustesse Adversariale
Capacité d'un modèle de deep learning à maintenir ses performances face à des exemples adversariaux soigneusement conçus pour induire en erreur ses prédictions.
Randomisation Adversariale
Approche défensive introduisant de l'aléatoire dans le modèle ou les entrées pendant l'inférence pour rendre les attaques basées sur gradient moins efficaces et prévisibles.
Méthode de Madry
Formulation de l'entraînement adversarial comme un problème de min-max robuste utilisant PGD pour trouver les pires perturbations dans chaque étape d'entraînement.
Entraînement Adversarial Multi-échelle
Technique avancée générant des exemples adversariaux à différentes échelles de résolution et niveaux de bruit pour améliorer la robustesse globale du modèle.
Auto-encodeur Défensif
Réseau neuronal entraîné à reconstruire les entrées originales à partir de versions corrompues, éliminant ainsi les perturbations adversariales avant classification.
Apprentissage Contrastif Adversarial
Méthode d'entraînement utilisant des paires d'exemples positifs et négatifs pour apprendre des représentations robustes qui distinguent mieux les exemples légitimes des adversariaux.
Régularisation Adversariale
Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.
Ensemble Adversarial
Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.
Validation Croisée Adversariale
Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.
Gradient Masking
Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.
Borne Adversariale
Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.
Bruit Aléatoire Défensif
Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.
Prétraitement Défensif
Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.