Glossário IA
O dicionário completo da Inteligência Artificial
Quantificação por Agrupamento
Técnica de compressão de modelos que agrupa pesos semelhantes em clusters para reduzir a memória, preservando o desempenho. Esta abordagem permite uma representação compacta dos pesos usando um número limitado de centroides representativos.
Quantificação K-means
Algoritmo de clustering aplicado à quantificação de pesos de modelos neurais, particionando o espaço de pesos em K clusters. Os pesos são então representados pelos centroides de seus respectivos clusters, reduzindo assim a precisão necessária.
Codebook
Conjunto de vetores de referência ou centroides usados para representar os pesos quantificados em um modelo compactado. O codebook permite mapear os pesos originais para representações de baixa precisão, minimizando o erro de reconstrução.
Centroides de Quantificação
Pontos representativos no centro de cada cluster no espaço de quantificação, servindo como substitutos para os pesos originais. Esses centroides são otimizados para minimizar o erro de quantificação global do modelo.
Quantificação de Produto
Técnica avançada que decompõe o espaço vetorial em subespaços e quantifica cada um separadamente antes de combinar os códigos. Este método permite uma compressão extrema com perda mínima de informação para modelos de alta dimensão.
Quantificação de Produto Otimizada
Variante da Quantificação de Produto que aplica uma transformação linear antes da decomposição em subespaços para otimizar a distribuição dos pesos. Esta pré-transformação melhora significativamente a qualidade da quantificação final.
Quantificação Aditiva
Abordagem onde os vetores são aproximados pela soma de vários códigos quantificados provenientes de diferentes codebooks. Este método oferece maior flexibilidade de representação do que as abordagens de codebook único.
Quantificação Residual
Técnica iterativa que quantifica sucessivamente os resíduos não capturados pelas etapas de quantificação anteriores. Cada iteração refina a aproximação, capturando os erros restantes do modelo.
Quantificação por Agrupamento Hierárquico
Método que organiza os pesos numa estrutura de árvore de clusters para uma quantificação multinível eficiente. Esta hierarquia permite um compromisso ajustável entre precisão e complexidade de armazenamento.
Quantificação de Subespaços
Técnica que divide o espaço dos pesos em subespaços ortogonais para quantificar independentemente cada dimensão. Esta abordagem reduz a complexidade computacional, preservando as características essenciais do modelo.
Distância de Mahalanobis na Quantificação
Métrica de distância adaptativa que considera a covariância entre os pesos para um agrupamento mais informativo. Esta abordagem melhora a qualidade dos grupos formados ao considerar as correlações estruturais do modelo.
Aprendizagem de Codebook
Processo de otimização dos centroides para minimizar o erro de reconstrução global do modelo quantificado. Esta etapa crucial determina a qualidade final da compressão e do desempenho do modelo.
Quantificador Grosso (Coarse Quantizer)
Primeiro nível de quantificação que realiza um agrupamento grosseiro dos pesos em clusters grandes. Esta etapa rápida reduz o espaço de busca para as etapas de quantificação mais finas.
Quantificador Fino (Fine Quantizer)
Nível de quantificação detalhado que opera em subespaços restritos para uma aproximação precisa dos pesos. Esta etapa refina a representação após o agrupamento inicial realizado pelo quantificador grosso.
IVF com Quantificação
Combinação do Índice de Arquivo Invertido (Inverted File Index) com técnicas de quantificação para uma busca eficiente em modelos compactados. Esta abordagem híbrida otimiza tanto a indexação quanto a representação compacta dos pesos.
PQ-Codes
Representações binárias compactas resultantes da Quantificação de Produto (Product Quantization) para cada vetor de pesos. Estes códigos permitem comparações rápidas e armazenamento eficiente, preservando as informações essenciais.
Quantização de Reticulado
Método que utiliza estruturas geométricas regulares (reticulados) para particionar o espaço dos pesos de forma uniforme. Esta abordagem garante propriedades teóricas ótimas para o erro de quantização.