Глоссарий ИИ
Полный словарь искусственного интеллекта
Атака на аудио с состязательными примерами
Техника, заключающаяся в преднамеренном изменении аудиосигнала для введения в заблуждение модели распознавания речи при сохранении незаметности для человеческого уха. Эти атаки используют уязвимости нейронных сетей путем добавления математически рассчитанных возмущений.
Незаметное возмущение аудиосигнала
Тонкая модификация аудиосигнала, разработанная так, чтобы быть незаметной для человеческого уха, но достаточной для изменения классификации модели ИИ. Эти возмущения оптимизируются для максимизации ошибки модели при минимизации перцептивных искажений.
Скрытая голосовая команда
Атака, при которой вредоносные голосовые команды маскируются под безобидный аудиофайл для запуска нежелательных действий на голосовых помощниках. Эта техника использует различия между человеческим восприятием и алгоритмическим анализом систем распознавания.
Атака «Дельфин»
Атака, использующая голосовые команды, модулированные на ультразвуковых частотах, неслышных для человека, но обнаруживаемых микрофонами голосовых помощников. Эта уязвимость позволяет удаленно управлять системами без ведома пользователей.
Состязательный аудиопример
Специально созданный аудиопример, предназначенный для обмана модели машинного обучения путем создания ошибочной классификации, которая при этом звучит нормально для слушателя. Эти примеры генерируются алгоритмами оптимизации, которые максимизируют функцию потерь целевой модели.
Состязательный аудиошум
Математически оптимизированный шумовой сигнал, добавляемый к чистому аудио для снижения производительности моделей распознавания речи. В отличие от случайного шума, этот шум структурирован так, чтобы использовать специфические слабые места нейронной сети.
Атака на спектрограмму
Метод атаки, который напрямую манипулирует спектрографическим представлением аудиосигнала, а не исходным временным сигналом. Этот подход позволяет проводить более целенаправленные атаки, используя чувствительность моделей к определенным частотным паттернам.
Атака типа «белый ящик» на аудио
Атака, при которой злоумышленник обладает полным знанием архитектуры модели, ее параметров и весов. Это знание позволяет генерировать оптимальные возмущения с высокой вероятностью успеха, используя такие методы, как FGSM или PGD.
Black-box Attack Audio
Attaque réalisée sans connaissance de l'architecture interne du modèle cible, en utilisant uniquement les entrées et sorties observables. Ces attaques reposent sur des techniques de transfert ou d'optimisation par requêtes pour trouver des perturbations efficaces.
Défense Adversariale Audio
Ensemble de techniques visant à protéger les modèles de reconnaissance audio contre les attaques adversariales. Ces méthodes incluent l'entraînement adversarial, la purification audio, et la détection d'anomalies dans les entrées sonores.
Robustesse Audio
Capacité d'un modèle de reconnaissance audio à maintenir ses performances face à des perturbations adversariales ou du bruit. La robustesse est mesurée par la résistance du modèle aux attaques tout en préservant sa précision sur les exemples légitimes.
Transferability Audio
Phénomène où une attaque générée contre un modèle audio spécifique reste efficace contre d'autres modèles avec des architectures différentes. Cette propriété est particulièrement exploitée dans les attaques black-box où le modèle cible est inconnu.
Audio Adversarial Training
Technique de régularisation où le modèle est entraîné sur des exemples audio adversariaux en plus des exemples propres. Cette approche améliore la robustesse du modèle en lui apprenant à résister aux perturbations malveillantes pendant l'entraînement.
Universal Audio Perturbation
Perturbation audio unique capable de tromper un modèle sur une large gamme d'entrées différentes. Contrairement aux attaques spécifiques, cette perturbation peut être appliquée à n'importe quel audio pour compromettre le modèle de manière généralisée.
Psychoacoustic Masking
Technique exploitant les limites de la perception humaine pour masquer des perturbations adversariales dans un signal audio. Cette approche utilise les principes de l'audiologie pour rendre les attaques imperceptibles tout en restant efficaces contre les modèles IA.
Phase Attack Audio
Attaque adversariale qui manipule spécifiquement la phase du signal audio tout en préservant l'amplitude perceptible. Cette méthode est particulièrement insidieuse car les humains sont moins sensibles aux modifications de phase que les systèmes de reconnaissance automatique.
Временная атака на аудио
Атака, которая вводит тонкие временные возмущения, такие как микросекундные сдвиги или изменения длительности. Эти временные манипуляции могут радикально изменить выход модели, оставаясь при этом практически незаметными для человеческого слуха.
Атака в частотной области
Атака, проводимая в частотной области путем изменения коэффициентов преобразования Фурье аудиосигнала. Этот подход позволяет точно манипулировать частотными компонентами для обмана моделей с контролируемой заметностью.
Генерация враждебных аудиопримеров
Алгоритмический процесс создания вредоносных аудиопримеров с использованием методов оптимизации, таких как проецируемый градиентный спуск. Эти алгоритмы итеративно настраивают аудиосигнал, чтобы максимизировать ошибку классификации в рамках ограничений на заметность.
Обфускация голосовых команд
Метод атаки, который маскирует или изменяет легитимные голосовые команды так, чтобы они интерпретировались системами ИИ иначе. Этот метод может превратить безобидную команду во вредоносную инструкцию, оставаясь при этом нормальной для человеческого уха.