🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Codificação Posicional Senoidal

Método de codificação posicional original que utiliza funções senoidais de diferentes frequências para gerar vetores de posição únicos e contínuos.

📖
termos

Codificação Posicional Aprendida

Abordagem onde os vetores de posição são parâmetros treinados do modelo, permitindo que a rede aprenda as representações posicionais ótimas para a tarefa.

📖
termos

Codificação Posicional Relativa

Variante de codificação que se concentra nas distâncias relativas entre os tokens, em vez de suas posições absolutas na sequência.

📖
termos

Viés Posicional

Técnica de codificação posicional onde a informação de posição é adicionada como um viés nos scores de atenção, em vez de nos embeddings de entrada.

📖
termos

Codificação Alibi (Attention with Linear Biases)

Método de codificação posicional que penaliza a atenção com base na distância entre os tokens, permitindo uma melhor extrapolação para sequências mais longas.

📖
termos

Codificação Posicional Rotacional (RoPE)

Técnica que integra a informação posicional girando os vetores de embedding no espaço, preservando as relações geométricas entre os tokens.

📖
termos

Codificação Posicional Convolucional

Abordagem que utiliza camadas de convolução para gerar representações posicionais, capturando padrões locais e globais nas sequências.

📖
termos

Posicionamento Absoluto

Estratégia de codificação onde cada token recebe um identificador de posição único baseado em seu índice absoluto na sequência.

📖
termos

Posicionamento Relativo

Estratégia onde a atenção entre os tokens depende da sua distância relativa em vez das suas posições absolutas na sequência.

📖
termos

Codificação Posicional Hierárquica

Método que codifica a posição em múltiplos níveis de granularidade, capturando tanto as posições locais quanto as globais na estrutura da sequência.

📖
termos

Embeddings de Posição

Vetores densos que representam a posição de cada token numa sequência, adicionados aos embeddings de conteúdo para formar as entradas do Transformer.

📖
termos

Matriz de Posicionamento

Estrutura matemática que contém as codificações posicionais para todas as posições possíveis numa sequência de comprimento máximo.

📖
termos

Codificação Posicional Axial

Técnica de codificação posicional para dados 2D (como imagens) que codifica separadamente as posições nos eixos horizontal e vertical.

📖
termos

Codificação Posicional por Tensor

Método avançado que utiliza produtos tensoriais para capturar interações complexas entre diferentes dimensões posicionais nas sequências.

📖
termos

Posicionamento por Periodicidade

Abordagem de codificação que utiliza padrões periódicos para representar as posições, particularmente eficaz para sequências com estruturas repetitivas.

📖
termos

Codificação Posicional Adaptativa

Técnica onde as codificações posicionais se adaptam dinamicamente em função do conteúdo e do comprimento da sequência processada.

📖
termos

Posicionamento por Interpolação

Método que permite estender as codificações posicionais a comprimentos de sequência não vistos durante o treinamento, interpolando as posições existentes.

📖
termos

Codificação Posicional Contínua

Abordagem que trata a posição como uma variável contínua em vez de discreta, permitindo uma representação mais fina das posições intermediárias.

📖
termos

Posicionamento por Atenção Relativa

Variante onde as pontuações de atenção são diretamente modificadas pelas distâncias relativas entre os tokens, integrando o posicionamento no mecanismo de atenção.

🔍

Nenhum resultado encontrado