Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Inférence d'Appartenance
Type d'attaque de confidentialité où un adversaire détermine si un enregistrement de données spécifique a été utilisé dans l'ensemble d'entraînement d'un modèle, violant la vie privée des individus.
Attaque par Inversion
Attaque qui reconstruit approximativement les données d'entraînement sensibles en analysant les sorties du modèle, menaçant la confidentialité des informations utilisées pour son apprentissage.
Différentielle de la Vie Privée
Cadre formel de confidentialité garantissant que la sortie d'un modèle change de manière négligeable si un seul individu est ajouté ou retiré du jeu de données d'entraînement.
Défense par Masquage Gradient
Technique de protection visant à obscurcir les gradients du modèle pour empêcher les attaquants d'utiliser des méthodes basées sur les gradients pour générer des attaques adversariales efficaces.
Fédération de l'Apprentissage
Approche d'entraînement décentralisée où le modèle est appris sur des données locales sans les partager, réduisant le risque de fuites de données sensibles depuis un référentiel central.
Backdoor dans un Modèle
Vulnérabilité introduite intentionnellement dans un modèle, souvent via un empoisonnement des données, qui le fait se comporter anormalement en présence d'un déclencheur spécifique.
Robustesse de Modèle
Capacité d'un modèle de machine learning à maintenir ses performances face à des perturbations des données d'entrée, y compris les bruits aléatoires et les attaques adversariales ciblées.
Certification de Robustesse
Processus mathématique fournissant une garantie formelle qu'un modèle ne peut pas être trompé par des perturbations d'entrée dépassant une certaine magnitude définie.
Attaque de Transfertabilité
Phénomène où un exemple adversarial, conçu pour tromper un modèle spécifique, parvient également à induire en erreur d'autres modèles ayant des architectures ou des données d'entraînement différentes.
Nettoyage d'Ensemble de Données
Processus proactif d'identification et de suppression d'échantillons potentiellement malveillants ou anormaux d'un jeu de données avant l'entraînement pour prévenir les attaques de type poisoning.
Métrique de Sensibilité
Mesure quantitative évaluant à quel point les prédictions d'un modèle changent en réponse à de petites modifications de ses données d'entrée, indiquant sa vulnérabilité aux attaques.