🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Rede Antagônica Gerativa

Arquitetura de aprendizado não supervisionado composta por duas redes neurais em competição, um gerador e um discriminador, que se enfrentam para gerar dados sintéticos realistas.

📖
termos

Perda Minimax

Função objetivo original das GANs onde o gerador minimiza a log-probabilidade do discriminador de errar, enquanto o discriminador maximiza a probabilidade de classificação correta.

📖
termos

Espaço Latente

Espaço vetorial de dimensão reduzida onde o gerador amostra ruído aleatório para criar dados, permitindo controle semântico sobre as características geradas.

📖
termos

StyleGAN

Arquitetura GAN avançada usando uma rede de mapeamento e módulos AdaIN para controlar os estilos hierárquicos das características geradas em diferentes resoluções.

📖
termos

Distância de Jensen-Shannon

Métrica de divergência simétrica e limitada usada nas GANs originais para medir a diferença entre a distribuição dos dados reais e gerados.

📖
termos

Penalidade de Gradiente

Termo de regularização adicionado à função de perda WGAN para restringir os gradientes do discriminador, garantindo a continuidade da transformação de Lipschitz.

📖
termos

Equilíbrio de Nash

Ponto de otimalidade onde nem o gerador nem o discriminador podem melhorar seu desempenho modificando unilateralmente seus parâmetros, indicando a convergência do treinamento.

📖
termos

Rede Codificadora

Componente adicional nas variantes BiGAN ou ALI que aprende a mapear os dados reais para o espaço latente, permitindo inferência latente e reconstrução.

📖
termos

Perda de Consistência de Ciclo

Função de perda adicional nas CycleGANs que garante a conservação do conteúdo durante traduções entre domínios não pareados através de ciclos de ida e volta.

📖
termos

Normalização Espectral

Técnica de regularização que restringe a norma espectral dos pesos do discriminador, estabilizando o treinamento das GANs ao controlar a transformada de Lipschitz.

📖
termos

Crescimento Progressivo

Estratégia de treinamento onde as redes começam com imagens de baixa resolução e adicionam progressivamente camadas para aumentar a resolução, estabilizando a convergência.

📖
termos

Autoencoder Variacional

Arquitetura híbrida que combina VAE e GAN onde o VAE garante a cobertura do espaço latente e o GAN melhora a qualidade visual das amostras geradas.

📖
termos

Distância de Fréchet Inception

Métrica de avaliação quantitativa que mede a similaridade entre as distribuições de características Inception das imagens reais e geradas através da distância de Fréchet.

🔍

Nenhum resultado encontrado