Glossário IA
O dicionário completo da Inteligência Artificial
Inferência de Membro
Tipo de ataque de privacidade onde um adversário determina se um registro de dados específico foi usado no conjunto de treinamento de um modelo, violando a privacidade dos indivíduos.
Ataque de Inversão
Ataque que reconstrói aproximadamente os dados de treinamento sensíveis analisando as saídas do modelo, ameaçando a confidencialidade das informações usadas para seu aprendizado.
Privacidade Diferencial
Estrutura formal de privacidade que garante que a saída de um modelo muda de forma insignificante se um único indivíduo for adicionado ou removido do conjunto de dados de treinamento.
Defesa por Mascaramento de Gradiente
Técnica de proteção que visa obscurecer os gradientes do modelo para impedir que os atacantes usem métodos baseados em gradientes para gerar ataques adversariais eficazes.
Aprendizado Federado
Abordagem de treinamento descentralizada onde o modelo é aprendido em dados locais sem compartilhá-los, reduzindo o risco de vazamento de dados sensíveis de um repositório central.
Backdoor em um Modelo
Vulnerabilidade introduzida intencionalmente em um modelo, muitas vezes por meio de envenenamento de dados, que o faz se comportar de forma anormal na presença de um gatilho específico.
Robustez do Modelo
Capacidade de um modelo de aprendizado de máquina de manter seu desempenho diante de perturbações nos dados de entrada, incluindo ruídos aleatórios e ataques adversariais direcionados.
Certificação de Robustez
Processo matemático que fornece uma garantia formal de que um modelo não pode ser enganado por perturbações de entrada que excedam uma certa magnitude definida.
Ataque de Transferibilidade
Fenômeno em que um exemplo adversarial, projetado para enganar um modelo específico, também consegue enganar outros modelos com arquiteturas ou dados de treinamento diferentes.
Limpeza de Conjunto de Dados
Processo proativo de identificação e remoção de amostras potencialmente maliciosas ou anômalas de um conjunto de dados antes do treinamento para prevenir ataques de envenenamento (poisoning).
Métrica de Sensibilidade
Medida quantitativa que avalia o quanto as previsões de um modelo mudam em resposta a pequenas modificações em seus dados de entrada, indicando sua vulnerabilidade a ataques.