Glossário IA
O dicionário completo da Inteligência Artificial
Destilação Defensiva
Método de defesa que treina uma rede para aprender as probabilidades suaves de um modelo pré-treinado, reduzindo a sensibilidade a perturbações adversariais ao suavizar a superfície de decisão.
Gradientes Obscurecidos
Fenômeno onde as defesas mascaram intencionalmente ou acidentalmente os gradientes, criando uma falsa impressão de robustez enquanto permanecem vulneráveis a ataques alternativos.
Fragmentação de Gradiente
Técnica que introduz descontinuidades ou oscilações na paisagem dos gradientes para perturbar os métodos de ataque baseados em otimização iterativa.
Regularização de Gradiente
Abordagem que penaliza gradientes elevados durante o treinamento para reduzir a sensibilidade do modelo a pequenas perturbações de entrada e melhorar a robustez geral.
Suavização Aleatória
Método que certifica a robustez adicionando ruído aleatório às entradas e usando técnicas de suavização gaussiana para garantir limites de certificabilidade contra ataques adversariais.
Transformação de Entrada
Defesa que aplica transformações não-diferenciáveis ou inversíveis às entradas antes da classificação, como compressão ou reamostragem, para neutralizar perturbações adversariais.
Redução de Características (Feature Squeezing)
Técnica que reduz a complexidade das características de entrada diminuindo a precisão dos pixels ou o espaço de cor, eliminando assim as perturbações imperceptíveis usadas nos ataques.
Defesa Não-diferenciável
Estratégia de proteção que integra operações não-diferenciáveis no pipeline de classificação para impedir o cálculo eficiente de gradientes pelos atacantes.
Ofuscação de Gradiente
Conjunto de técnicas que tornam os gradientes inexploráveis por métodos numéricos, incluindo mascaramento, esmagamento ou falsificação das informações de gradiente.
Defesas Certificadas
Abordagens que fornecem garantias matemáticas comprováveis sobre a robustez do modelo dentro de um raio de perturbação especificado, evitando falsas impressões de segurança.
Defesa contra Ataques Baseados em Mapa de Saliência Jacobiana
Contramedidas especificamente projetadas para neutralizar ataques baseados em mapas de saliência jacobiana, modificando a estrutura da rede ou os mecanismos de propagação.
Robustez Baseada em PGD
Avaliação e melhoria da robustez usando o Gradiente Projetado Descendente (PGD) como ataque de referência para medir e otimizar a resistência do modelo.
Métodos de Ensemble
Utilização de múltiplos modelos com diferentes arquiteturas ou inicializações para diversificar as respostas e reduzir a eficácia de ataques que visam um único ponto fraco.
Continuidade de Lipschitz
Propriedade matemática que garante uma variação limitada das saídas em relação às entradas, utilizada para projetar redes intrinsecamente robustas a perturbações.
Redes Robustas Comprováveis
Arquiteturas neurais projetadas com restrições formais que garantem matematicamente sua robustez em condições especificadas de perturbação.
Ataques de Otimização Sem Gradiente
Métodos de ataque que contornam o mascaramento de gradiente usando abordagens de otimização sem gradiente, como algoritmos genéticos ou recozimento simulado.
Codificação de Termômetro
Técnica de codificação de entradas que transforma características contínuas em representações binárias ordenadas, reduzindo o espaço de ataque e melhorando a robustez.