🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Adapters

Pequenos módulos neurais inseridos entre as camadas de um Transformer pré-treinado, cujos parâmetros são os únicos treinados durante o fine-tuning para adaptar o modelo a uma nova tarefa.

📖
termos

P-Tuning v2

Evolução do prefix-tuning onde os parâmetros treináveis (prompts contínuos) são colocados não apenas na entrada, mas também em cada camada do Transformer para um melhor desempenho.

📖
termos

Tree of Thoughts (ToT)

Framework avançado de prompt engineering que modela o raciocínio como uma exploração de árvore, permitindo ao modelo avaliar e escolher entre diferentes caminhos de pensamento.

📖
termos

Generated Knowledge Prompting

Técnica em duas etapas onde o modelo primeiro gera conhecimento factual sobre um tópico e, em seguida, usa esse conhecimento para responder a uma pergunta, melhorando a precisão.

📖
termos

Automatic Prompt Engineer (APE)

Método que utiliza um grande modelo de linguagem para gerar e otimizar automaticamente prompts para uma dada tarefa, com base em um conjunto de dados de validação.

📖
termos

Contrastive Fine-Tuning

Abordagem de adaptação que utiliza um objetivo de perda contrastiva para aproximar os embeddings de respostas corretas e afastar os de respostas incorretas.

📖
termos

Multi-Task Prompt Tuning (MTPT)

Variante do prompt tuning que aprende um conjunto de prompts compartilhados para realizar simultaneamente o fine-tuning em várias tarefas, melhorando a generalização.

🔍

Nenhum resultado encontrado