Słownik AI
Kompletny słownik sztucznej inteligencji
Scale et Zero-point
Paramètres fondamentaux de quantification où le scale définit le facteur de conversion entre flottant et entier, tandis que le zero-point représente la valeur entière correspondant au zéro en virgule flottante.
Représentation INT8
Format de quantification utilisant des entiers signés 8-bit (-128 à 127) pour représenter les poids et activations, offrant un compromis optimal entre précision et performance computationnelle sur la plupart des hardware.
Représentation INT4
Format de quantification extrême utilisant des entiers 4-bit (-8 à 7), réduisant significativement la taille du modèle mais introduisant une perte de précision notable nécessitant des techniques de compensation spécialisées.
Distribution des Activations
Analyse statistique des valeurs de sortie des couches neuronales sur un dataset de calibration, cruciale pour déterminer les plages de quantification optimales et minimiser la perte d'information.
Plage Dynamique
Écart entre les valeurs minimales et maximales des activations ou poids, déterminant la résolution de quantification et influençant directement la précision du modèle quantifié.
Biais de Quantification
Déviation systématique introduite par la conversion en représentation de précision réduite, pouvant être compensée par des techniques d'ajustement statistique pendant la calibration.
Table de Recherche LUT
Structure de données précalculée stockant les correspondances entre valeurs quantifiées et déquantifiées, optimisant les opérations de conversion pendant l'inférence pour accélérer les calculs.
Perte de Précision
Dégradation mesurable de la performance du modèle due à la réduction de la précision numérique, évaluée par des métriques comme la dégradation de l'accuracy ou l'augmentation de l'erreur de prédiction.
Weight Optimization
Fine-tuning process of model weights after quantization to compensate for introduced errors, using techniques such as bias correction or batch adjustment.
Min-Max Calibration
Calibration technique using extreme values observed in the dataset to define the quantization range, simple but sensitive to outliers that may degrade accuracy.
Percentile Calibration
Robust calibration method using percentiles (e.g., 99.9%) rather than extreme values, avoiding outlier influence and optimizing dynamic range utilization.
Per-Layer Quantization
Approach applying identical quantization parameters to all weights of a layer, simplifying implementation but potentially suboptimal for weights with varied distributions.
Per-Channel Quantization
Advanced technique independently quantizing each output channel of a convolutional layer, better preserving accuracy at the cost of slightly increased computational complexity.