AI-woordenlijst
Het complete woordenboek van kunstmatige intelligentie
Attaque Adversariale Audio
Technique consistant à modifier délibérément un signal audio pour induire en erreur un modèle de reconnaissance vocale tout en maintenant l'imperceptibilité humaine. Ces attaques exploitent les vulnérabilités des réseaux de neurones par l'ajout de perturbations calculées mathématiquement.
Perturbation Imperceptible Audio
Modification subtile du signal audio conçue pour être indétectable par l'oreille humaine mais suffisante pour changer la classification d'un modèle IA. Ces perturbations sont optimisées pour maximiser l'erreur du modèle tout en minimisant la distorsion perceptuelle.
Commande Vocale Cachée
Attaque où des instructions vocales malveillantes sont dissimulées dans un audio apparemment anodin pour déclencher des actions non désirées sur les assistants vocaux. Cette technique exploite les différences entre la perception humaine et l'analyse algorithmique des systèmes de reconnaissance.
Dolphin Attack
Attaque utilisant des commandes vocales modulées à des ultrasons inaudibles pour l'homme mais détectables par les microphones des assistants vocaux. Cette vulnérabilité permet de contrôler à distance des systèmes sans que les utilisateurs ne s'en aperçoivent.
Adversarial Audio Example
Exemple audio spécifiquement crafted pour tromper un modèle de machine learning en produisant une classification erronée tout en paraissant normal à l'écoute. Ces exemples sont générés par des algorithmes d'optimisation qui maximisent la fonction de perte du modèle cible.
Bruit Adversarial Audio
Signal de bruit mathématiquement optimisé ajouté à un audio propre pour compromettre la performance des modèles de reconnaissance vocale. Contrairement au bruit aléatoire, ce bruit est structuré pour exploiter les points faibles spécifiques du réseau neuronal.
Attaque sur Spectrogramme
Méthode d'attaque qui manipule directement la représentation spectrographique du signal audio plutôt que le signal temporel brut. Cette approche permet des attaques plus ciblées en exploitant la sensibilité des modèles aux patterns fréquentiels spécifiques.
White-box Attack Audio
Attaque où l'adversaire a une connaissance complète de l'architecture du modèle, de ses paramètres et de ses poids. Cette connaissance permet de générer des perturbations optimales avec une haute probabilité de succès en utilisant des méthodes comme FGSM ou PGD.
Black-box Attack Audio
Attack performed without knowledge of the target model's internal architecture, using only observable inputs and outputs. These attacks rely on transfer techniques or query-based optimization to find effective perturbations.
Adversarial Defense Audio
Set of techniques aimed at protecting audio recognition models against adversarial attacks. These methods include adversarial training, audio purification, and anomaly detection in sound inputs.
Audio Robustness
Ability of an audio recognition model to maintain its performance in the face of adversarial perturbations or noise. Robustness is measured by the model's resistance to attacks while preserving its accuracy on legitimate examples.
Transferability Audio
Phenomenon where an attack generated against a specific audio model remains effective against other models with different architectures. This property is particularly exploited in black-box attacks where the target model is unknown.
Audio Adversarial Training
Regularization technique where the model is trained on adversarial audio examples in addition to clean examples. This approach improves model robustness by teaching it to resist malicious perturbations during training.
Universal Audio Perturbation
Single audio perturbation capable of fooling a model across a wide range of different inputs. Unlike specific attacks, this perturbation can be applied to any audio to compromise the model in a generalized manner.
Psychoacoustic Masking
Technique exploiting the limits of human perception to hide adversarial perturbations in an audio signal. This approach uses principles of audiology to make attacks imperceptible while remaining effective against AI systems.
Phase Attack Audio
Adversarial attack that specifically manipulates the phase of the audio signal while preserving the perceptible amplitude. This method is particularly insidious as humans are less sensitive to phase modifications than automatic recognition systems.
Temporal Attack Audio
Attaque qui introduit des perturbations temporelles subtiles comme des décalages microsecondes ou des modifications de durée. Ces manipulations temporelles peuvent radicalement changer la sortie du modèle tout en restant quasi-invisibles à l'écoute humaine.
Frequency Domain Attack
Attaque réalisée dans le domaine fréquentiel en modifiant les coefficients de la transformée de Fourier du signal audio. Cette approche permet des manipulations précises des composantes fréquentielles pour tromper les modèles tout en contrôlant la perceptibilité.
Audio Adversarial Examples Generation
Processus algorithmique de création d'exemples audio malveillants utilisant des méthodes d'optimisation comme la descente de gradient projetée. Ces algorithmes ajustent itérativement le signal audio pour maximiser l'erreur de classification sous contraintes de perceptibilité.
Speech Command Obfuscation
Technique d'attaque qui masque ou modifie des commandes vocales légitimes pour qu'elles soient interprétées différemment par les systèmes IA. Cette méthode peut transformer une commande innocente en instruction malveillante tout en paraissant normale aux oreilles humaines.