🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📂
subcategorias

Mecanismo de Atenção

Fundamento matemático que permite aos modelos ponderar a importância relativa dos elementos numa sequência de dados.

5 termos
📂
subcategorias

Autoatenção

Mecanismo onde cada elemento de uma sequência calcula sua atenção em relação a todos os outros elementos da mesma sequência.

0 termos
📂
subcategorias

Atenção Multi-Cabeça

Extensão da atenção que utiliza múltiplas cabeças de atenção em paralelo para capturar diferentes tipos de relações.

3 termos
📂
subcategorias

Codificação Posicional

Técnica de incorporação da posição sequencial dos elementos nos embeddings sem usar RNNs.

12 termos
📂
subcategorias

Arquitetura Codificador-Decodificador

Estrutura fundamental dos Transformers que separa o processamento de entrada (codificador) e a geração de saída (decodificador).

2 termos
📂
subcategorias

Escalonamento da Atenção

Normalização pela raiz quadrada da dimensionalidade para estabilizar o treinamento e evitar gradientes explosivos.

14 termos
📂
subcategorias

Cross-Attention

Mecanismo de atenção entre duas sequências diferentes, utilizado em tarefas de tradução e multimodais.

8 termos
📂
subcategorias

Atenção Esparsa

Variante de atenção calculada apenas em um subconjunto de posições para reduzir a complexidade computacional.

3 termos
📂
subcategorias

Máscaras de Atenção

Mecanismos de controle que permitem mascarar certas posições durante o cálculo da atenção para evitar vazamentos de informação.

9 termos
📂
subcategorias

Transformadores de Visão

Adaptação da arquitetura Transformer para tarefas de visão computacional, tratando as imagens como sequências de patches.

9 termos
📂
subcategorias

Atenção Eficiente

Conjunto de otimizações que visam reduzir a complexidade quadrática da atenção padrão para sequências mais longas.

2 termos
📂
subcategorias

Atenção Hierárquica

Estrutura de atenção multinível que captura relações em diferentes escalas hierárquicas nos dados.

12 termos
🔍

Nenhum resultado encontrado