Glosario IA
El diccionario completo de la Inteligencia Artificial
Destilación defensiva
Método de defensa que entrena una red para aprender las probabilidades suaves de un modelo preentrenado, reduciendo la sensibilidad a las perturbaciones adversarias alisando la superficie de decisión.
Gradientes ofuscados
Fenómeno donde las defensas enmascaran intencional o accidentalmente los gradientes, creando una falsa impresión de robustez mientras siguen siendo vulnerables a ataques alternativos.
Fragmentación de gradientes
Técnica que introduce discontinuidades u oscilaciones en el paisaje de gradientes para perturbar los métodos de ataque basados en la optimización iterativa.
Regularización de gradientes
Enfoque que penaliza los gradientes altos durante el entrenamiento para reducir la sensibilidad del modelo a pequeñas perturbaciones de entrada y mejorar la robustez general.
Suavizado aleatorio
Método que certifica la robustez añadiendo ruido aleatorio a las entradas y utilizando técnicas de suavizado gaussiano para garantizar límites de certificabilidad contra los ataques adversarios.
Transformación de entrada
Defensa que aplica transformaciones no diferenciables o invertibles a las entradas antes de la clasificación, como la compresión o el remuestreo, para neutralizar las perturbaciones adversarias.
Reducción de características
Técnica que reduce la complejidad de las características de entrada disminuyendo la precisión de los píxeles o el espacio de color, eliminando así las perturbaciones imperceptibles utilizadas en los ataques.
Defensa no diferenciable
Estrategia de protección que integra operaciones no diferenciables en el canal de clasificación para impedir el cálculo eficiente de gradientes por parte de los atacantes.
Ofuscación de gradiente
Conjunto de técnicas que hacen que los gradientes sean inutilizables por métodos numéricos, incluyendo el enmascaramiento, aplastamiento o falsificación de la información del gradiente.
Defensas certificadas
Enfoques que proporcionan garantías matemáticas comprobables sobre la robustez del modelo dentro de un radio de perturbación especificado, evitando las falsas impresiones de seguridad.
Defensa contra ataques de mapas de saliencia basados en el Jacobiano
Contramedidas diseñadas específicamente para neutralizar los ataques basados en mapas de saliencia jacobianos modificando la estructura de la red o los mecanismos de propagación.
Robustez basada en PGD
Evaluación y mejora de la robustez utilizando el Descenso de Gradiente Proyectado como ataque de referencia para medir y optimizar la resistencia del modelo.
Métodos de conjunto
Uso de múltiples modelos con diferentes arquitecturas o inicializaciones para diversificar las respuestas y reducir la eficacia de los ataques que tienen como objetivo un único punto débil.
Continuidad de Lipschitz
Propiedad matemática que garantiza una variación limitada de las salidas con respecto a las entradas, utilizada para diseñar redes intrínsecamente robustas a las perturbaciones.
Redes robustas comprobables
Arquitecturas neuronales diseñadas con restricciones formales que garantizan matemáticamente su robustez en condiciones de perturbación especificadas.
Ataques de optimización sin gradiente
Métodos de ataque que evitan el enmascaramiento de gradiente utilizando enfoques de optimización sin gradiente como los algoritmos genéticos o el recocido simulado.
Codificación de termómetro
Técnica de codificación de entradas que transforma las características continuas en representaciones binarias ordenadas, reduciendo el espacio de ataque y mejorando la robustez.