Glosario IA
El diccionario completo de la Inteligencia Artificial
Defensa estocástica
Enfoque defensivo que utiliza la aleatoriedad en el proceso de clasificación para hacer que los ataques adversariales sean impredecibles y menos efectivos al introducir estocasticidad en la inferencia.
Robustez probabilística
Medida de robustez que evalúa la probabilidad de que un modelo mantenga predicciones correctas ante perturbaciones, en lugar de garantizar una protección absoluta contra todos los ataques.
Defensa gaussiana
Técnica específica de aleatorización que utiliza ruido gaussiano para proteger los modelos, donde la distribución normal se aplica ya sea a las entradas o a los pesos de la red neuronal.
Defensa Dropout
Uso estratégico del dropout durante la inferencia (normalmente desactivado) para introducir aleatoriedad en las activaciones de la red, haciendo que los ataques por gradiente sean menos fiables.
Transformación aleatoria
Aplicación de transformaciones aleatorias (rotación, traslación, escalado) a las entradas antes de la clasificación, creando una variabilidad que perturba la construcción de ejemplos adversariales específicos.
Defensa basada en entropía
Método defensivo que utiliza la entropía de la distribución de probabilidad de salida como métrica para detectar y rechazar entradas sospechosas, combinado con aleatorización para aumentar la incertidumbre.
Defensa Monte Carlo
Enfoque defensivo que realiza múltiples inferencias con diferentes realizaciones aleatorias y agrega los resultados, utilizando métodos de Monte Carlo para estimar la robustez del modelo.
Defensa Bayesiana
Marco de defensa que trata los pesos de la red como distribuciones probabilísticas en lugar de puntos fijos, integrando naturalmente la incertidumbre y la aleatorización en el proceso de clasificación.
Enmascaramiento de gradiente estocástico
Técnica que oscurece intencionalmente los gradientes mediante aleatorización para evitar que los atacantes utilicen eficazmente los métodos basados en gradientes para generar ejemplos adversarios.
Ensamblaje aleatorio
Construcción de conjuntos de modelos donde cada miembro utiliza una aleatorización diferente, creando una defensa colectiva más robusta a través de la diversidad estocástica de las predicciones.
Aleatorización adaptativa
Estrategia de defensa donde el nivel y el tipo de aleatorización se adaptan dinámicamente según las características de la entrada o las amenazas detectadas para optimizar el equilibrio entre robustez y precisión.
Certificación probabilística
Garantía matemática que proporciona un límite en la probabilidad de clasificación correcta bajo perturbación, en lugar de una certeza absoluta, adaptada a los métodos de defensa aleatorizados.
Defensa consciente del ruido
Enfoque defensivo diseñado teniendo en cuenta explícitamente la naturaleza y las propiedades estadísticas del ruido añadido, optimizando la aleatorización para una protección máxima mientras se preserva el rendimiento.
Inferencia estocástica
Proceso de inferencia que integra elementos aleatorios en varias etapas (entrada, activaciones, pesos), transformando la clasificación determinista en un proceso probabilista resistente a los ataques.
Preprocesamiento aleatorio
Canalización de preprocesamiento de datos que incorpora etapas aleatorias (normalización variable, aumento estocástico) para crear una primera línea de defensa contra los ataques adversarios.
Robustez distribucional
Propiedad de un modelo que mantiene un rendimiento estable ante variaciones en la distribución de los datos de entrada, obtenida mediante la aleatorización para simular y protegerse contra estas variaciones.