Glossário IA
O dicionário completo da Inteligência Artificial
Arquitetura Transformer
Estrutura neural revolucionária baseada em mecanismos de atenção que constitui a fundação dos LLMs modernos.
Mecanismos de Atenção
Componentes algorítmicos que permitem aos modelos ponderar seletivamente diferentes partes do texto durante o processamento.
Ajuste Fino e Adaptação
Processo de ajuste de modelos pré-treinados em dados específicos para tarefas ou domínios particulares.
Engenharia de Prompt
Técnicas de otimização de instruções para guiar eficazmente os LLMs para respostas desejadas.
Modelos Multimodais
LLMs capazes de processar e gerar simultaneamente texto, imagens, áudio e outros formatos de dados.
Quantificação e Otimização
Técnicas de redução do tamanho dos modelos e de melhoria da eficiência computacional para a implantação.
Avaliação e Métricas
Metodologias e indicadores para medir o desempenho, a coerência e a segurança dos LLM.
Leis de Escala
Princípios matemáticos que descrevem a relação entre o tamanho dos modelos, os dados de treinamento e o desempenho.
RAG - Geração Aumentada por Recuperação
Abordagem que combina pesquisa de informação externa e geração para melhorar a precisão e a atualidade das respostas.
Encadeamento de Agentes
Sistemas onde vários LLMs colaboram em sequência ou em paralelo para resolver tarefas complexas.
Mecanismos de Contenção
Técnicas para controlar e alinhar o comportamento de LLMs, prevenindo respostas inadequadas ou perigosas.
Modelos Específicos de Domínio
LLLM especializados e otimizados para setores particulares como medicina, direito ou finanças.
Aprendizagem Contínua
Capacidades de aprendizagem contínua que permitem aos LLMs integrar novos conhecimentos sem esquecer os anteriores.
Modelos de Baixos Recursos
Técnicas de treinamento eficazes para desenvolver LLMs de alto desempenho com dados e recursos computacionais limitados.
Tokenização e Codificação
Processo de conversão de texto em unidades numéricas compreensíveis pelas arquiteturas neurais dos LLMs.