🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Inferência de Membro

Tipo de ataque de privacidade onde um adversário determina se um registro de dados específico foi usado no conjunto de treinamento de um modelo, violando a privacidade dos indivíduos.

📖
termos

Ataque de Inversão

Ataque que reconstrói aproximadamente os dados de treinamento sensíveis analisando as saídas do modelo, ameaçando a confidencialidade das informações usadas para seu aprendizado.

📖
termos

Privacidade Diferencial

Estrutura formal de privacidade que garante que a saída de um modelo muda de forma insignificante se um único indivíduo for adicionado ou removido do conjunto de dados de treinamento.

📖
termos

Defesa por Mascaramento de Gradiente

Técnica de proteção que visa obscurecer os gradientes do modelo para impedir que os atacantes usem métodos baseados em gradientes para gerar ataques adversariais eficazes.

📖
termos

Aprendizado Federado

Abordagem de treinamento descentralizada onde o modelo é aprendido em dados locais sem compartilhá-los, reduzindo o risco de vazamento de dados sensíveis de um repositório central.

📖
termos

Backdoor em um Modelo

Vulnerabilidade introduzida intencionalmente em um modelo, muitas vezes por meio de envenenamento de dados, que o faz se comportar de forma anormal na presença de um gatilho específico.

📖
termos

Robustez do Modelo

Capacidade de um modelo de aprendizado de máquina de manter seu desempenho diante de perturbações nos dados de entrada, incluindo ruídos aleatórios e ataques adversariais direcionados.

📖
termos

Certificação de Robustez

Processo matemático que fornece uma garantia formal de que um modelo não pode ser enganado por perturbações de entrada que excedam uma certa magnitude definida.

📖
termos

Ataque de Transferibilidade

Fenômeno em que um exemplo adversarial, projetado para enganar um modelo específico, também consegue enganar outros modelos com arquiteturas ou dados de treinamento diferentes.

📖
termos

Limpeza de Conjunto de Dados

Processo proativo de identificação e remoção de amostras potencialmente maliciosas ou anômalas de um conjunto de dados antes do treinamento para prevenir ataques de envenenamento (poisoning).

📖
termos

Métrica de Sensibilidade

Medida quantitativa que avalia o quanto as previsões de um modelo mudam em resposta a pequenas modificações em seus dados de entrada, indicando sua vulnerabilidade a ataques.

🔍

Nenhum resultado encontrado