🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Extração de Modelo

Ataque onde um adversário recria um modelo de machine learning consultando a API do modelo alvo e usando as respostas para treinar um modelo substituto com funcionalidades equivalentes.

📖
termos

Ataque de Inferência de Associação

Técnica de ataque que visa determinar se uma amostra de dados específica foi usada no conjunto de treinamento de um modelo, revelando assim informações sobre os dados de treinamento privados.

📖
termos

Ataque de Inversão de Modelo

Ataque que reconstrói aproximadamente as características dos dados de treinamento explorando as saídas do modelo e as informações sobre as previsões para inverter o processo de aprendizagem.

📖
termos

Exemplos Adversariais

Entradas especialmente projetadas para induzir erro em um modelo de machine learning, explorando as vulnerabilidades do modelo para causar previsões incorretas enquanto permanecem imperceptíveis para humanos.

📖
termos

Ataque de Envenenamento de Dados

Ataque onde um adversário insere deliberadamente dados maliciosos no conjunto de treinamento para comprometer o desempenho do modelo ou criar backdoors exploráveis.

📖
termos

Roubo de Modelo

Processo pelo qual um invasor extrai ou replica ilicitamente um modelo de machine learning proprietário explorando as informações acessíveis através de sua API ou comportamento preditivo.

📖
termos

Ataque de Inferência de Propriedades

Ataque que visa inferir propriedades globais do conjunto de dados de treinamento, como a distribuição de classes ou correlações, sem acessar diretamente os dados.

📖
termos

Marca D'Água de Modelo

Técnica de proteção intelectual que integra marcadores invisíveis em um modelo de machine learning permitindo identificar e provar a propriedade em caso de roubo ou reprodução não autorizada.

📖
termos

Gradient Leakage

Vulnerabilidade onde os gradientes compartilhados durante o treinamento distribuído ou federado podem divulgar informações sensíveis sobre os dados de treinamento locais dos participantes.

📖
termos

Cryptographic Primitives

Operações criptográficas fundamentais como criptografia, descriptografia, funções de hash e assinaturas digitais usadas como blocos de construção para criar protocolos de segurança complexos.

🔍

Nenhum resultado encontrado