🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Ataque por Envenenamento

Técnica de ataque onde dados maliciosos são injetados no conjunto de treinamento para degradar o desempenho do modelo ou introduzir vulnerabilidades específicas.

📖
termos

Injeção de Backdoor

Método que consiste em inserir gatilhos específicos nos dados de treinamento para criar um comportamento malicioso latente que se ativa apenas na presença desses gatilhos.

📖
termos

Ataque por Corrupção de Rótulos

Estratégia de envenenamento onde o atacante modifica intencionalmente os rótulos dos dados de treinamento para enganar o modelo e comprometer sua precisão de classificação.

📖
termos

Ataque Causal por Envenenamento

Abordagem sofisticada de envenenamento que manipula as relações causais entre as características para influenciar de forma direcionada as previsões do modelo.

📖
termos

Defesa por Robustez

Conjunto de técnicas que visam tornar os modelos de IA resistentes a ataques por envenenamento, limitando o impacto de dados maliciosos na aprendizagem.

📖
termos

Detecção de Anomalias de Treinamento

Processo de identificação e eliminação de pontos de dados anômalos ou potencialmente maliciosos no conjunto de treinamento antes ou durante a aprendizagem.

📖
termos

Validação Cruzada Robusta

Técnica de validação reforçada que avalia a estabilidade do modelo face a diferentes partições dos dados para detetar eventuais contaminações maliciosas.

📖
termos

Aprendizagem com Dados Ruidosos

Paradigma de aprendizagem concebido para manter um desempenho ótimo apesar da presença de dados corrompidos ou intencionalmente modificados no conjunto de treinamento.

📖
termos

Limpeza de dataset

Processo sistemático de limpeza de dados de treinamento para identificar e eliminar amostras potencialmente envenenadas antes do treinamento do modelo.

📖
termos

Modelo certificável

Arquitetura de modelo de IA capaz de fornecer garantias matemáticas sobre sua resistência a ataques de envenenamento sob condições definidas.

📖
termos

Ataque por superajuste induzido

Técnica de envenenamento que força o modelo a superajustar padrões específicos introduzidos pelo atacante, comprometendo sua capacidade de generalização.

📖
termos

Defesa por filtragem

Mecanismo de proteção que aplica filtros estatísticos ou heurísticos para eliminar dados suspeitos antes de sua integração no processo de aprendizado.

📖
termos

Envenenamento direcionado

Ataque de envenenamento projetado para comprometer especificamente as previsões para certas classes ou entradas particulares, mantendo o desempenho geral.

📖
termos

Envenenamento indiscriminado

Ataque que visa degradar globalmente o desempenho do modelo sem direcionamento específico, muitas vezes introduzindo ruído sistemático nos dados de treinamento.

📖
termos

Defesa por retreinamento incremental

Estratégia de proteção que atualiza continuamente o modelo com novos dados validados, monitorando desvios de desempenho que possam indicar envenenamento.

📖
termos

Ataque por retropropagação inversa

Técnica avançada onde o atacante calcula as modificações ótimas a serem feitas nos dados de treinamento para maximizar o impacto nos pesos finais do modelo.

📖
termos

Defesa por validação externa

Abordagem de proteção que utiliza conjuntos de validação independentes e não comprometidos para detectar degradações de desempenho causadas por envenenamento.

🔍

Nenhum resultado encontrado