🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Token mascarado

Token em uma sequência textual substituído por um símbolo especial [MASK] durante o treinamento, forçando o modelo a aprender a prever o token original.

📖
termos

BERT

Arquitetura revolucionária de Transformer pré-treinada usando MLM para entender o contexto bidirecional da linguagem natural.

📖
termos

RoBERTa

Versão otimizada do BERT que elimina a Previsão da Próxima Frase (Next Sentence Prediction) e utiliza mascaramento dinâmico com hiperparâmetros aprimorados.

📖
termos

Atenção bidirecional

Mecanismo que permite a cada token atender tanto aos tokens anteriores quanto aos seguintes na sequência, ao contrário dos modelos unidirecionais.

📖
termos

Embeddings de token

Representações vetoriais densas dos tokens de entrada que capturam suas características semânticas e sintáticas.

📖
termos

Mascaramento dinâmico

Estratégia de mascaramento onde os tokens mascarados mudam a cada época de treinamento, melhorando a robustez do modelo, como no RoBERTa.

📖
termos

Mascaramento de Palavra Completa (WWM)

Técnica avançada que mascara todos os subtokens de uma palavra inteira, em vez de tokens individuais aleatórios.

📖
termos

Mascaramento de trecho

Estratégia que mascara sequências contíguas de tokens de comprimentos variáveis, imitando melhor os fenômenos linguísticos naturais.

📖
termos

Estratégia de mascaramento

Conjunto de regras que determinam quais tokens mascarar, com que probabilidade e como substituí-los durante o treinamento MLM.

🔍

Nenhum resultado encontrado