Glossário IA
O dicionário completo da Inteligência Artificial
Arquitetura Transformer
Estrutura neural baseada em mecanismos de atenção que permite o processamento paralelizado de sequências textuais
Tokenização
Processo de segmentação do texto em unidades discretas (tokens) para processamento por modelos
Fine-tuning
Adaptação especializada de um modelo pré-treinado em dados específicos para tarefas direcionadas
Engenharia de Prompt
Concepção e otimização de instruções para orientar eficazmente as respostas dos modelos de linguagem
Mecanismo de Atenção
Sistema que permite ao modelo ponderar a importância das diferentes partes do texto durante o processamento
Embeddings de Linguagem
Representações vetoriais densas que capturam o significado semântico de palavras e frases
Transfer Learning
Reutilização de conhecimentos adquiridos em um grande corpus para tarefas específicas com poucos dados
Leis de Escala
Princípios matemáticos que descrevem a melhoria de desempenho com o aumento do tamanho do modelo
Zero-shot Learning
Capacidade dos modelos de realizar tarefas nunca vistas durante o treinamento sem exemplos
Modelos Multimodais
LLM integrando processamento de texto, imagens, áudio e outras modalidades em um quadro unificado
Quantificação
Redução da precisão numérica dos pesos do modelo para otimizar a inferência e o armazenamento
RAG (Geração Aumentada por Recuperação)
Combinação de recuperação de informações externas com geração para melhorar a precisão das respostas
Alinhamento e Segurança
Técnicas para garantir que os modelos respeitem os valores humanos e evitem comportamentos nocivos
Modelos Autoregressivos
Arquitetura generativa que prevê o próximo token com base em todos os tokens anteriores
LoRA (Low-Rank Adaptation)
Método de fine-tuning eficiente em memória usando matrizes de baixo posto