Glossário IA
O dicionário completo da Inteligência Artificial
Treinamento Ciente de Quantização (QAT)
Método de treinamento de modelos de deep learning que simula a quantização durante o processo de aprendizado para otimizar o desempenho pós-quantização.
Quantização Falsa
Operação que simula os efeitos da quantização durante o treinamento, arredondando valores enquanto mantém os gradientes para a retropropagação.
Faixa de Quantização
Intervalo de valores [min, max] usado para mapear números de ponto flutuante para inteiros quantizados, determinando a precisão da representação.
Quantização Simétrica
Técnica de quantização onde o intervalo é centrado em zero, simplificando os cálculos, mas podendo reduzir a eficiência para distribuições assimétricas.
Quantização Assimétrica
Método de quantização que utiliza um ponto zero diferente de zero, otimizando o uso da faixa dinâmica para distribuições não centradas.
Quantização de Faixa Dinâmica
Técnica que adapta dinamicamente as faixas de quantização durante a execução para otimizar o uso dos bits disponíveis.
Quantização Por Tensor
Método que aplica um único conjunto de parâmetros de quantização a todo um tensor, simplificando a implementação.
Quantização Apenas de Inteiros
Abordagem que elimina completamente as operações de ponto flutuante, exigindo técnicas especializadas para manter a precisão do modelo.
Quantização Camada a Camada
Estratégia que otimiza individualmente a quantização de cada camada de acordo com suas características específicas e sensibilidade.
Análise de Sensibilidade à Quantização
Avaliação do impacto da quantização em cada componente do modelo para identificar as camadas que requerem atenção especial.
Ciclo de Treinamento Consciente de Quantização (QAT)
Ciclo de treinamento modificado que integra operações de simulação de quantização em cada passagem forward e backward.
Batch Folding
Técnica de otimização que funde os parâmetros de normalização de lote (batch normalization) com os pesos convolucionais antes da quantização.
Corte de Gradiente em QAT
Método que limita a amplitude dos gradientes durante o treinamento quantizado para estabilizar a convergência, apesar das aproximações.
Quantização Gradual
Abordagem progressiva que aumenta gradualmente o nível de quantização durante o treinamento para facilitar a adaptação do modelo.