Glosario IA
El diccionario completo de la Inteligencia Artificial
Robustez por Transferencia
Capacidad de un modelo para resistir los ataques adversarios diseñados originalmente para otras arquitecturas, midiendo la generalización de las defensas contra amenazas desconocidas.
Modelo Fuente
Modelo de referencia utilizado para generar ataques adversarios en el contexto de ataques por transferencia, sirviendo como punto de partida para comprometer modelos objetivo.
Modelo Objetivo
Modelo víctima objetivo de un ataque por transferencia, cuyas vulnerabilidades son explotadas a través de perturbaciones generadas en un modelo fuente distinto.
Espacio de Ataque
Dominio matemático que define todas las perturbaciones posibles que pueden aplicarse a los datos de entrada para comprometer un modelo, crucial para evaluar la transferibilidad de los ataques.
Generalización de Ataque
Propiedad de un ataque adversario de mantener su eficacia sobre varios modelos o instancias del mismo modelo, independientemente de su arquitectura o parámetros específicos.
Método de Ensamble
Estrategia de ataque que combina varios modelos fuente para generar perturbaciones más robustas y transferibles, aumentando significativamente la tasa de éxito contra objetivos desconocidos.
Ataque No-Box
Tipo de ataque por transferencia extremo donde el atacante no dispone de ninguna información sobre el modelo objetivo, basándose únicamente en la transferibilidad universal de las perturbaciones.
Distancia de Norma
Medida matemática (L0, L1, L2, L∞) que cuantifica la amplitud de las perturbaciones adversarias, esencial para evaluar la transferibilidad manteniendo la imperceptibilidad del ataque.
Límite de Transferibilidad
Límite teórico superior que cuantifica la tasa de éxito máxima de un ataque por transferencia entre dos modelos, basada en sus similitudes estructurales y funcionales.
Diversidad de Modelos
Medida de variación entre arquitecturas, parámetros y conjuntos de datos de entrenamiento de diferentes modelos, influyendo directamente en la transferibilidad de los ataques adversarios.
Alineamiento de Gradientes
Similitud direccional entre los gradientes de diferentes modelos, sirviendo como indicador predictivo de la transferibilidad potencial de los ataques entre estos modelos.
Defensa por Transferencia
Enfoque defensivo que explota la transferibilidad de los ataques para desarrollar protecciones robustas que funcionan contra amenazas desconocidas y futuros modelos de ataque.
Evasión de Modelo
Objetivo de los ataques por transferencia que consiste en evadir los mecanismos de detección o clasificación de un modelo sin ser detectado, explotando sus debilidades generalizadas.
Superficie de Decisión
Frontera matemática que separa las diferentes clases de predicción de un modelo, cuya similitud entre modelos determina el éxito potencial de los ataques por transferencia.
Sensibilidad por Transferencia
Medida cuantitativa de la vulnerabilidad compartida entre diferentes modelos ante las mismas perturbaciones adversarias, reveladora de debilidades sistémicas en el aprendizaje automático.
Métrica de Transferibilidad
Indicador cuantitativo que evalúa la probabilidad de éxito de un ataque generado en un modelo fuente para comprometer un modelo objetivo, basado en similitudes estructurales o comportamentales.