Glossário IA
O dicionário completo da Inteligência Artificial
Ataque de Inferência de Atributo
Ataque em que um adversário tenta deduzir atributos sensíveis não presentes nos dados de treinamento a partir das previsões do modelo. Este ataque explora as correlações implícitas aprendidas pelo modelo para revelar informações privadas sobre os indivíduos.
Ataque de Modelo Sombra
Ataque em que o adversário treina modelos alternativos em dados sintéticos para imitar o comportamento do modelo alvo. Esses modelos sombra permitem gerar exemplos de treinamento para construir um classificador de ataque eficaz.
Quantificação de Vazamento de Privacidade
Métodos sistemáticos para medir e avaliar a quantidade de informações privadas divulgadas por um modelo de aprendizado de máquina. Essas métricas ajudam a quantificar os riscos de vazamento e a avaliar a eficácia dos mecanismos de proteção.
Defesa de Privacidade Adversarial
Técnicas de defesa proativas que incorporam restrições de privacidade diretamente no objetivo de treinamento do modelo. Esses métodos otimizam simultaneamente o desempenho do modelo e sua resistência a ataques de inferência.
Destilação de Conhecimento para Privacidade
Técnica em que um modelo professor privado é usado para treinar um modelo aluno público, transferindo o conhecimento enquanto mascara as informações sensíveis. Esta abordagem reduz a capacidade do modelo final de memorizar detalhes específicos dos dados de treinamento.
Projeto de Modelo Consciente da Privacidade
Princípios de design arquitetural que integram mecanismos de proteção da privacidade desde a concepção do modelo. Esta abordagem inclui a limitação da capacidade do modelo, a adição de regularização e o projeto de saídas menos informativas.
Ataque de Extração de Modelo
Ataque em que um adversário tenta replicar ou roubar um modelo proprietário consultando suas previsões e treinando um modelo substituto. Este ataque também pode revelar informações sobre os dados de treinamento originais.