Glosario IA
El diccionario completo de la Inteligencia Artificial
Ataque Adversarial de Audio
Técnica que consiste en modificar deliberadamente una señal de audio para inducir a error a un modelo de reconocimiento de voz manteniendo la imperceptibilidad humana. Estos ataques explotan las vulnerabilidades de las redes neuronales mediante la adición de perturbaciones calculadas matemáticamente.
Perturbación Imperceptible de Audio
Modificación sutil de la señal de audio diseñada para ser indetectable para el oído humano pero suficiente para cambiar la clasificación de un modelo de IA. Estas perturbaciones se optimizan para maximizar el error del modelo minimizando al mismo tiempo la distorsión perceptual.
Comando de Voz Oculto
Ataque donde instrucciones de voz maliciosas se disimulan en un audio aparentemente inocuo para desencadenar acciones no deseadas en los asistentes de voz. Esta técnica explota las diferencias entre la percepción humana y el análisis algorítmico de los sistemas de reconocimiento.
Ataque Dolphin
Ataque que utiliza comandos de voz modulados en ultrasonidos inaudibles para el ser humano pero detectables por los micrófonos de los asistentes de voz. Esta vulnerabilidad permite controlar sistemas a distancia sin que los usuarios se den cuenta.
Ejemplo de Audio Adversarial
Ejemplo de audio específicamente diseñado para engañar a un modelo de machine learning produciendo una clasificación errónea mientras parece normal a la escucha. Estos ejemplos se generan mediante algoritmos de optimización que maximizan la función de pérdida del modelo objetivo.
Ruido Adversarial de Audio
Señal de ruido matemáticamente optimizada añadida a un audio limpio para comprometer el rendimiento de los modelos de reconocimiento de voz. A diferencia del ruido aleatorio, este ruido está estructurado para explotar los puntos débiles específicos de la red neuronal.
Ataque sobre Espectrograma
Método de ataque que manipula directamente la representación espectrográfica de la señal de audio en lugar de la señal temporal bruta. Este enfoque permite ataques más específicos al explotar la sensibilidad de los modelos a patrones frecuenciales específicos.
Ataque de Caja Blanca de Audio
Ataque donde el adversario tiene un conocimiento completo de la arquitectura del modelo, sus parámetros y sus pesos. Este conocimiento permite generar perturbaciones óptimas con una alta probabilidad de éxito utilizando métodos como FGSM o PGD.
Black-box Attack Audio
Attaque réalisée sans connaissance de l'architecture interne du modèle cible, en utilisant uniquement les entrées et sorties observables. Ces attaques reposent sur des techniques de transfert ou d'optimisation par requêtes pour trouver des perturbations efficaces.
Défense Adversariale Audio
Ensemble de techniques visant à protéger les modèles de reconnaissance audio contre les attaques adversariales. Ces méthodes incluent l'entraînement adversarial, la purification audio, et la détection d'anomalies dans les entrées sonores.
Robustesse Audio
Capacité d'un modèle de reconnaissance audio à maintenir ses performances face à des perturbations adversariales ou du bruit. La robustesse est mesurée par la résistance du modèle aux attaques tout en préservant sa précision sur les exemples légitimes.
Transferability Audio
Phénomène où une attaque générée contre un modèle audio spécifique reste efficace contre d'autres modèles avec des architectures différentes. Cette propriété est particulièrement exploitée dans les attaques black-box où le modèle cible est inconnu.
Audio Adversarial Training
Technique de régularisation où le modèle est entraîné sur des exemples audio adversariaux en plus des exemples propres. Cette approche améliore la robustesse du modèle en lui apprenant à résister aux perturbations malveillantes pendant l'entraînement.
Universal Audio Perturbation
Perturbation audio unique capable de tromper un modèle sur une large gamme d'entrées différentes. Contrairement aux attaques spécifiques, cette perturbation peut être appliquée à n'importe quel audio pour compromettre le modèle de manière généralisée.
Psychoacoustic Masking
Technique exploitant les limites de la perception humaine pour masquer des perturbations adversariales dans un signal audio. Cette approche utilise les principes de l'audiologie pour rendre les attaques imperceptibles tout en restant efficaces contre les modèles IA.
Phase Attack Audio
Attaque adversariale qui manipule spécifiquement la phase du signal audio tout en préservant l'amplitude perceptible. Cette méthode est particulièrement insidieuse car les humains sont moins sensibles aux modifications de phase que les systèmes de reconnaissance automatique.
Ataque de Audio Temporal
Ataque que introduce perturbaciones temporales sutiles, como desplazamientos de microsegundos o modificaciones de duración. Estas manipulaciones temporales pueden cambiar radicalmente la salida del modelo mientras siguen siendo casi invisibles para el oído humano.
Ataque en el Dominio de Frecuencia
Ataque realizada en el dominio de frecuencia modificando los coeficientes de la transformada de Fourier de la señal de audio. Este enfoque permite manipulaciones precisas de los componentes de frecuencia para engañar a los modelos mientras se controla la perceptibilidad.
Generación de Ejemplos Adversariales de Audio
Proceso algorítmico de creación de ejemplos de audio maliciosos utilizando métodos de optimización como el descenso de gradiente proyectado. Estos algoritmos ajustan iterativamente la señal de audio para maximizar el error de clasificación bajo restricciones de perceptibilidad.
Ofuscación de Comandos de Voz
Técnica de ataque que enmascara o modifica comandos de voz legítimos para que sean interpretados de manera diferente por los sistemas de IA. Este método puede transformar un comando inocente en una instrucción maliciosa mientras parece normal a los oídos humanos.