🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Ataque Adversarial de Audio

Técnica que consiste en modificar deliberadamente una señal de audio para inducir a error a un modelo de reconocimiento de voz manteniendo la imperceptibilidad humana. Estos ataques explotan las vulnerabilidades de las redes neuronales mediante la adición de perturbaciones calculadas matemáticamente.

📖
términos

Perturbación Imperceptible de Audio

Modificación sutil de la señal de audio diseñada para ser indetectable para el oído humano pero suficiente para cambiar la clasificación de un modelo de IA. Estas perturbaciones se optimizan para maximizar el error del modelo minimizando al mismo tiempo la distorsión perceptual.

📖
términos

Comando de Voz Oculto

Ataque donde instrucciones de voz maliciosas se disimulan en un audio aparentemente inocuo para desencadenar acciones no deseadas en los asistentes de voz. Esta técnica explota las diferencias entre la percepción humana y el análisis algorítmico de los sistemas de reconocimiento.

📖
términos

Ataque Dolphin

Ataque que utiliza comandos de voz modulados en ultrasonidos inaudibles para el ser humano pero detectables por los micrófonos de los asistentes de voz. Esta vulnerabilidad permite controlar sistemas a distancia sin que los usuarios se den cuenta.

📖
términos

Ejemplo de Audio Adversarial

Ejemplo de audio específicamente diseñado para engañar a un modelo de machine learning produciendo una clasificación errónea mientras parece normal a la escucha. Estos ejemplos se generan mediante algoritmos de optimización que maximizan la función de pérdida del modelo objetivo.

📖
términos

Ruido Adversarial de Audio

Señal de ruido matemáticamente optimizada añadida a un audio limpio para comprometer el rendimiento de los modelos de reconocimiento de voz. A diferencia del ruido aleatorio, este ruido está estructurado para explotar los puntos débiles específicos de la red neuronal.

📖
términos

Ataque sobre Espectrograma

Método de ataque que manipula directamente la representación espectrográfica de la señal de audio en lugar de la señal temporal bruta. Este enfoque permite ataques más específicos al explotar la sensibilidad de los modelos a patrones frecuenciales específicos.

📖
términos

Ataque de Caja Blanca de Audio

Ataque donde el adversario tiene un conocimiento completo de la arquitectura del modelo, sus parámetros y sus pesos. Este conocimiento permite generar perturbaciones óptimas con una alta probabilidad de éxito utilizando métodos como FGSM o PGD.

📖
términos

Black-box Attack Audio

Attaque réalisée sans connaissance de l'architecture interne du modèle cible, en utilisant uniquement les entrées et sorties observables. Ces attaques reposent sur des techniques de transfert ou d'optimisation par requêtes pour trouver des perturbations efficaces.

📖
términos

Défense Adversariale Audio

Ensemble de techniques visant à protéger les modèles de reconnaissance audio contre les attaques adversariales. Ces méthodes incluent l'entraînement adversarial, la purification audio, et la détection d'anomalies dans les entrées sonores.

📖
términos

Robustesse Audio

Capacité d'un modèle de reconnaissance audio à maintenir ses performances face à des perturbations adversariales ou du bruit. La robustesse est mesurée par la résistance du modèle aux attaques tout en préservant sa précision sur les exemples légitimes.

📖
términos

Transferability Audio

Phénomène où une attaque générée contre un modèle audio spécifique reste efficace contre d'autres modèles avec des architectures différentes. Cette propriété est particulièrement exploitée dans les attaques black-box où le modèle cible est inconnu.

📖
términos

Audio Adversarial Training

Technique de régularisation où le modèle est entraîné sur des exemples audio adversariaux en plus des exemples propres. Cette approche améliore la robustesse du modèle en lui apprenant à résister aux perturbations malveillantes pendant l'entraînement.

📖
términos

Universal Audio Perturbation

Perturbation audio unique capable de tromper un modèle sur une large gamme d'entrées différentes. Contrairement aux attaques spécifiques, cette perturbation peut être appliquée à n'importe quel audio pour compromettre le modèle de manière généralisée.

📖
términos

Psychoacoustic Masking

Technique exploitant les limites de la perception humaine pour masquer des perturbations adversariales dans un signal audio. Cette approche utilise les principes de l'audiologie pour rendre les attaques imperceptibles tout en restant efficaces contre les modèles IA.

📖
términos

Phase Attack Audio

Attaque adversariale qui manipule spécifiquement la phase du signal audio tout en préservant l'amplitude perceptible. Cette méthode est particulièrement insidieuse car les humains sont moins sensibles aux modifications de phase que les systèmes de reconnaissance automatique.

📖
términos

Ataque de Audio Temporal

Ataque que introduce perturbaciones temporales sutiles, como desplazamientos de microsegundos o modificaciones de duración. Estas manipulaciones temporales pueden cambiar radicalmente la salida del modelo mientras siguen siendo casi invisibles para el oído humano.

📖
términos

Ataque en el Dominio de Frecuencia

Ataque realizada en el dominio de frecuencia modificando los coeficientes de la transformada de Fourier de la señal de audio. Este enfoque permite manipulaciones precisas de los componentes de frecuencia para engañar a los modelos mientras se controla la perceptibilidad.

📖
términos

Generación de Ejemplos Adversariales de Audio

Proceso algorítmico de creación de ejemplos de audio maliciosos utilizando métodos de optimización como el descenso de gradiente proyectado. Estos algoritmos ajustan iterativamente la señal de audio para maximizar el error de clasificación bajo restricciones de perceptibilidad.

📖
términos

Ofuscación de Comandos de Voz

Técnica de ataque que enmascara o modifica comandos de voz legítimos para que sean interpretados de manera diferente por los sistemas de IA. Este método puede transformar un comando inocente en una instrucción maliciosa mientras parece normal a los oídos humanos.

🔍

No se encontraron resultados