Glossário IA
O dicionário completo da Inteligência Artificial
Robustez de Acurácia
Métrica que avalia o desempenho de um modelo em exemplos adversariais gerados dentro de um certo limite de perturbação, medindo assim sua resistência a ataques. Esta métrica combina a precisão clássica com uma avaliação sob restrições de perturbação para quantificar a degradação do desempenho.
Distância de Ataque
Medida quantitativa da perturbação mínima necessária para que um ataque adversarial consiga enganar um modelo, geralmente calculada de acordo com diferentes normas (L0, L1, L2, L∞). Esta métrica permite comparar a robustez relativa entre diferentes modelos face aos mesmos tipos de ataques.
Pontuação de Robustez
Índice composto normalizado entre 0 e 1 que avalia globalmente a resistência de um modelo a um conjunto variado de ataques adversariais. Esta pontuação agrega várias métricas de robustez para fornecer uma avaliação sintética da segurança do modelo.
Métrica CLEVER
Pontuação de estimativa da robustez local baseada nos gradientes de Lipschitz, permitindo avaliar um limite inferior da resistência de um modelo a ataques sem a necessidade de ataques específicos. CLEVER (Cross Lipschitz Extreme Value for nEtwork Robustness) é particularmente eficaz para avaliar a robustez certificável de redes profundas.
Benchmark AutoAttack
Conjunto de avaliação padronizado e automatizado que combina múltiplos ataques (APGD-CE, APGD-T, FAB, Square) para fornecer uma avaliação robusta e confiável da resistência dos modelos. O AutoAttack adapta dinamicamente seus parâmetros para maximizar a eficácia dos ataques e minimizar o mascaramento de gradiente.
Avaliação de Robustez Local
Análise da resistência de um modelo em uma vizinhança específica em torno de uma amostra dada, determinando se a previsão permanece constante para todas as perturbações nessa região. Esta avaliação é crucial para entender o comportamento do modelo em nível individual, em vez de agregado.
Avaliação de Robustez Global
Medida da resistência de um modelo sobre toda a sua distribuição de entrada, avaliando seu desempenho médio face a ataques em uma grande amostra de dados. Esta abordagem fornece uma visão macroscópica da segurança do modelo em condições reais de uso.
Margem de Robustez
Distância mínima entre a fronteira de decisão de um modelo e uma amostra de entrada, quantificando a margem de segurança antes que uma mudança de previsão ocorra. Esta métrica é fundamental para entender a estabilidade geométrica das decisões do modelo.
Pontuação de Segurança Adversarial
Indicador normalizado que avalia o nível de proteção de um modelo contra diferentes famílias de ataques adversariais, geralmente ponderando a severidade dos ataques pela sua probabilidade de ocorrência. Esta pontuação ajuda a comparar objetivamente a segurança relativa de diferentes arquiteturas de modelos.
Escala de Robustez
Sistema de classificação padronizado que permite categorizar os modelos de acordo com o seu nível de resistência a ataques adversariais, geralmente dividido em vários níveis (baixo, médio, alto, certificado). Esta escala facilita a comunicação sobre a robustez dos modelos entre investigadores e praticantes.
Índice de Vulnerabilidade
Métrica quantitativa que mede a sensibilidade de um modelo a ataques adversariais, calculada como a razão entre o desempenho degradado sob ataque e o desempenho nominal. Um índice elevado indica uma grande vulnerabilidade, enquanto um índice baixo sugere uma melhor resistência.
Taxa de Sucesso de Ataque
Percentagem de amostras para as quais um ataque adversarial consegue alterar a previsão do modelo, medindo diretamente a eficácia dos ataques contra um dado modelo. Esta métrica é complementar à acurácia de robustez para avaliar completamente a segurança do modelo.
Perturbação Máxima Admissível
Limite de perturbação máxima que um modelo pode tolerar sem alteração de previsão, servindo de referência para avaliar a robustez em condições controladas. Esta medida é essencial para definir as restrições operacionais de segurança do modelo.
Avaliação de Robustez Empírica
Metodologia de avaliação baseada na geração de ataques adversariais específicos para testar a resistência de um modelo, fornecendo medidas práticas, mas sem garantias formais. Esta abordagem é amplamente utilizada porque reflete os cenários de ataque reais.
Benchmark RobustBench
Plataforma padronizada de referência para a avaliação da robustez de modelos de classificação de imagens, fornecendo protocolos de avaliação rigorosos e classificações comparativas. O RobustBench mantém uma lista de modelos certificados robustos e métricas de avaliação reconhecidas pela comunidade.
Métrica de Distância Lp
Norma matemática utilizada para quantificar a amplitude das perturbações adversariais, onde p pode assumir diferentes valores (0, 1, 2, ∞) para medir diferentes tipos de modificações. A escolha da norma Lp influencia significativamente a avaliação da robustez de acordo com a natureza das perturbações consideradas.
Avaliação Formal de Robustez
Abordagem matematicamente rigorosa para verificar a robustez de um modelo, provando garantias sobre todas as perturbações possíveis num domínio especificado. Ao contrário dos métodos empíricos, a avaliação formal fornece certezas absolutas, mas é frequentemente computacionalmente dispendiosa.