🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📂
subcategorias

Mecanismo de Atenção

Permite ao modelo ponderar a importância de diferentes partes da entrada durante o processamento.

10 termos
📂
subcategorias

Auto-Atenção

Mecanismo onde cada elemento da sequência presta atenção em todos os outros elementos da mesma sequência.

7 termos
📂
subcategorias

Multi-Head Attention

Extensão do self-attention que utiliza múltiplas cabeças de atenção em paralelo para capturar diferentes tipos de relacionamentos.

8 termos
📂
subcategorias

Codificação Posicional

Técnica para integrar informações de posição nos embeddings sem usar RNN.

19 termos
📂
subcategorias

Arquitetura Encoder-Decoder

Estrutura fundamental dos Transformers com encoder para compreender e decoder para gerar.

4 termos
📂
subcategorias

Scaled Dot-Product Attention

Forma matemática básica do cálculo de atenção nos Transformers com escalonamento.

5 termos
📂
subcategorias

Redes Feed-Forward

Redes totalmente conectadas aplicadas após cada camada de atenção nos Transformers.

16 termos
📂
subcategorias

Normalização de Camada

Técnica de normalização aplicada nos Transformers para estabilizar o treinamento.

6 termos
📂
subcategorias

Máscaras de Atenção

Mecanismo para controlar quais tokens podem se atender a outros tokens.

19 termos
📂
subcategorias

Vision Transformers (ViT)

Aplicação da arquitetura Transformer ao processamento de imagens dividindo as imagens em patches.

14 termos
📂
subcategorias

Arquitetura BERT

Transformer encoder-only pré-treinado com objetivos de masked language modeling.

11 termos
📂
subcategorias

Arquitetura GPT

Transformer decoder-only otimizado para geração de texto de forma autorregressiva

8 termos
📂
subcategorias

Cross-Attention

Mecanismo de atenção entre duas sequências diferentes nos codificadores-decodificadores.

5 termos
📂
subcategorias

Atenção Esparsa

Variante da atenção que reduz a complexidade calculando apenas pares seletivos.

18 termos
📂
subcategorias

Atenção Hierárquica

Arquitetura multinível que aplica a atenção em diferentes escalas de granularidade

12 termos
📂
subcategorias

Visualização de Atenção

Técnicas para interpretar e visualizar os pesos de atenção dos Transformers.

17 termos
📂
subcategorias

Otimização de Transformer

Métodos específicos para o treinamento eficiente de grandes modelos Transformers.

16 termos
📂
subcategorias

Transformadores Multi-Modais

Arquitetura Transformer estendida para processar simultaneamente múltiplos tipos de dados.

18 termos
📂
subcategorias

Transformers Eficientes

Variantes otimizadas dos Transformers para reduzir a complexidade computacional.

9 termos
📂
subcategorias

Variantes de Mecanismos de Atenção

Diferentes abordagens e melhorias do mecanismo de atenção além do dot-product.

9 termos
🔍

Nenhum resultado encontrado