🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Normalização de Camada

Técnica de regularização que estabiliza o treinamento normalizando as ativações de cada camada, aplicada antes ou depois das subcamadas de atenção e feed-forward.

📖
termos

Mecanismo de Mascaramento

Procedimento que impede que as posições atendam a tokens futuros durante a decodificação auto-regressiva, e/ou que processem tokens de preenchimento em sequências de comprimento variável.

📖
termos

Projeção Query-Key-Value

Transformação linear dos embeddings de entrada em três matrizes distintas (Q, K, V) usadas para calcular os pesos de atenção de acordo com a fórmula softmax(QK^T/√d_k)V.

📖
termos

Codificação Posicional Senoidal

Método de codificação posicional que utiliza funções senoidais de diferentes frequências, permitindo que o modelo extrapole para comprimentos de sequência não vistos.

📖
termos

Arquitetura Apenas Codificador

Variante Transformer que utiliza apenas a pilha de codificadores, projetada para tarefas de compreensão como classificação ou análise de sentimentos (ex: BERT).

📖
termos

Arquitetura Apenas Decodificador

Variante Transformer que utiliza apenas a pilha de decodificadores com mascaramento causal, otimizada para a geração de texto auto-regressiva (ex: GPT).

📖
termos

Efeito Quadrático

Complexidade computacional e de memória O(n²) da atenção padrão em relação ao comprimento da sequência n, constituindo a principal limitação dos Transformers.

🔍

Nenhum resultado encontrado