Evasão de Modelo
Exemplos Adversariais
Entradas especialmente projetadas para induzir erro em um modelo de machine learning, explorando as vulnerabilidades do modelo para causar previsões incorretas enquanto permanecem imperceptíveis para humanos.
← Voltar