Glossário IA
O dicionário completo da Inteligência Artificial
Ataque por Envenenamento
Técnica de ataque onde dados maliciosos são injetados no conjunto de treinamento para degradar o desempenho do modelo ou introduzir vulnerabilidades específicas.
Injeção de Backdoor
Método que consiste em inserir gatilhos específicos nos dados de treinamento para criar um comportamento malicioso latente que se ativa apenas na presença desses gatilhos.
Ataque por Corrupção de Rótulos
Estratégia de envenenamento onde o atacante modifica intencionalmente os rótulos dos dados de treinamento para enganar o modelo e comprometer sua precisão de classificação.
Ataque Causal por Envenenamento
Abordagem sofisticada de envenenamento que manipula as relações causais entre as características para influenciar de forma direcionada as previsões do modelo.
Defesa por Robustez
Conjunto de técnicas que visam tornar os modelos de IA resistentes a ataques por envenenamento, limitando o impacto de dados maliciosos na aprendizagem.
Detecção de Anomalias de Treinamento
Processo de identificação e eliminação de pontos de dados anômalos ou potencialmente maliciosos no conjunto de treinamento antes ou durante a aprendizagem.
Validação Cruzada Robusta
Técnica de validação reforçada que avalia a estabilidade do modelo face a diferentes partições dos dados para detetar eventuais contaminações maliciosas.
Aprendizagem com Dados Ruidosos
Paradigma de aprendizagem concebido para manter um desempenho ótimo apesar da presença de dados corrompidos ou intencionalmente modificados no conjunto de treinamento.
Limpeza de dataset
Processo sistemático de limpeza de dados de treinamento para identificar e eliminar amostras potencialmente envenenadas antes do treinamento do modelo.
Modelo certificável
Arquitetura de modelo de IA capaz de fornecer garantias matemáticas sobre sua resistência a ataques de envenenamento sob condições definidas.
Ataque por superajuste induzido
Técnica de envenenamento que força o modelo a superajustar padrões específicos introduzidos pelo atacante, comprometendo sua capacidade de generalização.
Defesa por filtragem
Mecanismo de proteção que aplica filtros estatísticos ou heurísticos para eliminar dados suspeitos antes de sua integração no processo de aprendizado.
Envenenamento direcionado
Ataque de envenenamento projetado para comprometer especificamente as previsões para certas classes ou entradas particulares, mantendo o desempenho geral.
Envenenamento indiscriminado
Ataque que visa degradar globalmente o desempenho do modelo sem direcionamento específico, muitas vezes introduzindo ruído sistemático nos dados de treinamento.
Defesa por retreinamento incremental
Estratégia de proteção que atualiza continuamente o modelo com novos dados validados, monitorando desvios de desempenho que possam indicar envenenamento.
Ataque por retropropagação inversa
Técnica avançada onde o atacante calcula as modificações ótimas a serem feitas nos dados de treinamento para maximizar o impacto nos pesos finais do modelo.
Defesa por validação externa
Abordagem de proteção que utiliza conjuntos de validação independentes e não comprometidos para detectar degradações de desempenho causadas por envenenamento.