Glosario IA
El diccionario completo de la Inteligencia Artificial
Ataque Adversarial
Técnica que consiste en introducir perturbaciones imperceptibles en los datos de entrada para engañar a un modelo de aprendizaje automático. Estos ataques explotan las vulnerabilidades de las redes neuronales profundas manipulando sutilmente los píxeles de una imagen.
Ataque con Parche Adversarial
Técnica de ataque donde se aplica un parche físico o digital a una imagen para engañar a los modelos de clasificación o detección. A diferencia de las perturbaciones de píxeles, este método modifica una región específica de la imagen de manera visible pero es interpretada incorrectamente por el modelo.
Ataque Universal
Tipo de ataque donde una sola perturbación es capaz de engañar a un modelo en la mayoría de las imágenes de entrada. Estos ataques son particularmente peligrosos porque no requieren recalcular la perturbación para cada nueva imagen.
Ataque a la Detección de Objetos
Ataque diseñado específicamente para engañar a los modelos de detección de objetos manipulando los cuadros delimitadores o las puntuaciones de confianza. Estos ataques pueden hacer desaparecer objetos detectados o hacer que aparezcan objetos falsos.
Gradiente Enmascarado
Fenómeno donde un modelo de defensa alisa artificialmente su superficie de decisión, haciendo que los gradientes sean inutilizables para los ataques. Aunque parece protector, esta técnica a menudo es evitable y puede crear una falsa impresión de seguridad.
Perturbación Lp
Medida de la magnitud de las perturbaciones adversarias utilizando diferentes normas matemáticas (L0, L2, L-infinito). Cada norma impone diferentes restricciones sobre la naturaleza y la distribución de las modificaciones permitidas en la imagen.
Ataque a la Segmentación Semántica
Ataque dirigido a modelos de segmentación que modifican la clasificación píxel por píxel de las imágenes. Estos ataques pueden alterar la percepción de los contornos y las regiones semánticas, afectando aplicaciones como la conducción autónoma o la imagen médica.
Transferibilidad del Ataque
Fenómeno donde un ataque generado contra un modelo específico sigue siendo efectivo contra otros modelos, incluso con arquitecturas diferentes. Esta propiedad es crucial para los ataques de caja negra y revela vulnerabilidades comunes entre modelos.