🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📂
subcategorias

Autoatenção Multi-Cabeça

Mecanismo fundamental que permite ao modelo focar-se simultaneamente em diferentes posições da sequência com múltiplas representações de atenção.

13 termos
📂
subcategorias

Codificação Posicional

Técnica que permite integrar informações sobre a posição dos tokens nas sequências, pois os Transformers não possuem recorrência intrínseca.

19 termos
📂
subcategorias

Arquitetura Encoder-Decoder

Estrutura bidirecional onde o codificador processa a sequência de entrada e o decodificador gera a sequência de saída, utilizada em tarefas de tradução.

5 termos
📂
subcategorias

BERT e Modelos Masked LM

Modelos pré-treinados com objetivo de mascaramento de tokens, revolucionando o PNL com representações contextuais bidirecionais.

3 termos
📂
subcategorias

GPT e Modelos Autorregressivos

Arquitetura baseada apenas no decodificador, gerando texto token por token, prevendo o próximo token com base nos anteriores.

11 termos
📂
subcategorias

Transformadores de Visão (ViT)

Adaptação de Transformers para tarefas de visão computacional, tratando as imagens como sequências de patches.

5 termos
📂
subcategorias

Atenção Linear e Eficiente

Variantes de atenção que reduzem a complexidade quadrática para complexidade linear para processar sequências mais longas de forma eficiente.

3 termos
📂
subcategorias

Transformers Multimodais

Arquitetura unificada que processa simultaneamente múltiplas modalidades (texto, imagem, áudio) em um mesmo espaço de representação.

9 termos
📂
subcategorias

Fine-Tuning e Engenharia de Prompts

Técnicas de adaptação de modelos pré-treinados a tarefas específicas com poucos dados de treinamento.

7 termos
📂
subcategorias

Interpretabilidade dos Mecanismos de Atenção

Estudo e visualização dos pesos de atenção para compreender as decisões do modelo e identificar as dependências aprendidas.

14 termos
📂
subcategorias

Transformers para Áudio

Aplicação de arquiteturas Transformer em tarefas de processamento de áudio, reconhecimento de fala e geração musical.

18 termos
📂
subcategorias

Atenção Esparsa

Variantes de atenção que consideram apenas um subconjunto das posições para reduzir a complexidade computacional e de memória.

0 termos
🔍

Nenhum resultado encontrado