🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Robustez de Acurácia

Métrica que avalia o desempenho de um modelo em exemplos adversariais gerados dentro de um certo limite de perturbação, medindo assim sua resistência a ataques. Esta métrica combina a precisão clássica com uma avaliação sob restrições de perturbação para quantificar a degradação do desempenho.

📖
termos

Distância de Ataque

Medida quantitativa da perturbação mínima necessária para que um ataque adversarial consiga enganar um modelo, geralmente calculada de acordo com diferentes normas (L0, L1, L2, L∞). Esta métrica permite comparar a robustez relativa entre diferentes modelos face aos mesmos tipos de ataques.

📖
termos

Pontuação de Robustez

Índice composto normalizado entre 0 e 1 que avalia globalmente a resistência de um modelo a um conjunto variado de ataques adversariais. Esta pontuação agrega várias métricas de robustez para fornecer uma avaliação sintética da segurança do modelo.

📖
termos

Métrica CLEVER

Pontuação de estimativa da robustez local baseada nos gradientes de Lipschitz, permitindo avaliar um limite inferior da resistência de um modelo a ataques sem a necessidade de ataques específicos. CLEVER (Cross Lipschitz Extreme Value for nEtwork Robustness) é particularmente eficaz para avaliar a robustez certificável de redes profundas.

📖
termos

Benchmark AutoAttack

Conjunto de avaliação padronizado e automatizado que combina múltiplos ataques (APGD-CE, APGD-T, FAB, Square) para fornecer uma avaliação robusta e confiável da resistência dos modelos. O AutoAttack adapta dinamicamente seus parâmetros para maximizar a eficácia dos ataques e minimizar o mascaramento de gradiente.

📖
termos

Avaliação de Robustez Local

Análise da resistência de um modelo em uma vizinhança específica em torno de uma amostra dada, determinando se a previsão permanece constante para todas as perturbações nessa região. Esta avaliação é crucial para entender o comportamento do modelo em nível individual, em vez de agregado.

📖
termos

Avaliação de Robustez Global

Medida da resistência de um modelo sobre toda a sua distribuição de entrada, avaliando seu desempenho médio face a ataques em uma grande amostra de dados. Esta abordagem fornece uma visão macroscópica da segurança do modelo em condições reais de uso.

📖
termos

Margem de Robustez

Distância mínima entre a fronteira de decisão de um modelo e uma amostra de entrada, quantificando a margem de segurança antes que uma mudança de previsão ocorra. Esta métrica é fundamental para entender a estabilidade geométrica das decisões do modelo.

📖
termos

Pontuação de Segurança Adversarial

Indicador normalizado que avalia o nível de proteção de um modelo contra diferentes famílias de ataques adversariais, geralmente ponderando a severidade dos ataques pela sua probabilidade de ocorrência. Esta pontuação ajuda a comparar objetivamente a segurança relativa de diferentes arquiteturas de modelos.

📖
termos

Escala de Robustez

Sistema de classificação padronizado que permite categorizar os modelos de acordo com o seu nível de resistência a ataques adversariais, geralmente dividido em vários níveis (baixo, médio, alto, certificado). Esta escala facilita a comunicação sobre a robustez dos modelos entre investigadores e praticantes.

📖
termos

Índice de Vulnerabilidade

Métrica quantitativa que mede a sensibilidade de um modelo a ataques adversariais, calculada como a razão entre o desempenho degradado sob ataque e o desempenho nominal. Um índice elevado indica uma grande vulnerabilidade, enquanto um índice baixo sugere uma melhor resistência.

📖
termos

Taxa de Sucesso de Ataque

Percentagem de amostras para as quais um ataque adversarial consegue alterar a previsão do modelo, medindo diretamente a eficácia dos ataques contra um dado modelo. Esta métrica é complementar à acurácia de robustez para avaliar completamente a segurança do modelo.

📖
termos

Perturbação Máxima Admissível

Limite de perturbação máxima que um modelo pode tolerar sem alteração de previsão, servindo de referência para avaliar a robustez em condições controladas. Esta medida é essencial para definir as restrições operacionais de segurança do modelo.

📖
termos

Avaliação de Robustez Empírica

Metodologia de avaliação baseada na geração de ataques adversariais específicos para testar a resistência de um modelo, fornecendo medidas práticas, mas sem garantias formais. Esta abordagem é amplamente utilizada porque reflete os cenários de ataque reais.

📖
termos

Benchmark RobustBench

Plataforma padronizada de referência para a avaliação da robustez de modelos de classificação de imagens, fornecendo protocolos de avaliação rigorosos e classificações comparativas. O RobustBench mantém uma lista de modelos certificados robustos e métricas de avaliação reconhecidas pela comunidade.

📖
termos

Métrica de Distância Lp

Norma matemática utilizada para quantificar a amplitude das perturbações adversariais, onde p pode assumir diferentes valores (0, 1, 2, ∞) para medir diferentes tipos de modificações. A escolha da norma Lp influencia significativamente a avaliação da robustez de acordo com a natureza das perturbações consideradas.

📖
termos

Avaliação Formal de Robustez

Abordagem matematicamente rigorosa para verificar a robustez de um modelo, provando garantias sobre todas as perturbações possíveis num domínio especificado. Ao contrário dos métodos empíricos, a avaliação formal fornece certezas absolutas, mas é frequentemente computacionalmente dispendiosa.

🔍

Nenhum resultado encontrado