Glosario IA
El diccionario completo de la Inteligencia Artificial
Entrenamiento con Cuantización (QAT)
Método de entrenamiento de modelos de deep learning que simula la cuantización durante el proceso de aprendizaje para optimizar el rendimiento posterior a la cuantización.
Falsa Cuantización
Operación que simula los efectos de la cuantización durante el entrenamiento redondeando los valores mientras mantiene los gradientes para la retropropagación.
Rango de Cuantización
Intervalo de valores [min, max] utilizado para mapear los números de punto flotante a enteros cuantificados, determinando la precisión de la representación.
Cuantización Simétrica
Técnica de cuantización donde el intervalo está centrado alrededor de cero, simplificando los cálculos pero pudiendo reducir la eficiencia para las distribuciones asimétricas.
Cuantización Asimétrica
Método de cuantización que utiliza un punto cero distinto de cero, optimizando el uso del rango dinámico para distribuciones no centradas.
Cuantización de Rango Dinámico
Técnica que adapta dinámicamente los rangos de cuantización durante la ejecución para optimizar el uso de los bits disponibles.
Cuantización por Tensor
Método que aplica un solo conjunto de parámetros de cuantización a todo un tensor, simplificando la implementación.
Cuantización Solo Entera
Enfoque que elimina completamente las operaciones de punto flotante, requiriendo técnicas especializadas para mantener la precisión del modelo.
Cuantización por capas
Estrategia que optimiza individualmente la cuantización de cada capa según sus características específicas y sensibilidad.
Análisis de sensibilidad de cuantización
Evaluación del impacto de la cuantización en cada componente del modelo para identificar las capas que requieren atención especial.
Bucle de entrenamiento consciente de cuantización
Ciclo de entrenamiento modificado que integra operaciones de simulación de cuantización en cada pasada hacia adelante y hacia atrás.
Fusión de lotes
Técnica de optimización que fusiona los parámetros de normalización por lotes con los pesos convolucionales antes de la cuantización.
Recorte de gradientes en QAT
Método que limita la amplitud de los gradientes durante el entrenamiento cuantificado para estabilizar la convergencia a pesar de las aproximaciones.
Cuantización escalonada
Enfoque progresivo que aumenta gradualmente el nivel de cuantización durante el entrenamiento para facilitar la adaptación del modelo.