🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Scale et Zero-point

Paramètres fondamentaux de quantification où le scale définit le facteur de conversion entre flottant et entier, tandis que le zero-point représente la valeur entière correspondant au zéro en virgule flottante.

📖
termer

Représentation INT8

Format de quantification utilisant des entiers signés 8-bit (-128 à 127) pour représenter les poids et activations, offrant un compromis optimal entre précision et performance computationnelle sur la plupart des hardware.

📖
termer

Représentation INT4

Format de quantification extrême utilisant des entiers 4-bit (-8 à 7), réduisant significativement la taille du modèle mais introduisant une perte de précision notable nécessitant des techniques de compensation spécialisées.

📖
termer

Distribution des Activations

Analyse statistique des valeurs de sortie des couches neuronales sur un dataset de calibration, cruciale pour déterminer les plages de quantification optimales et minimiser la perte d'information.

📖
termer

Plage Dynamique

Écart entre les valeurs minimales et maximales des activations ou poids, déterminant la résolution de quantification et influençant directement la précision du modèle quantifié.

📖
termer

Biais de Quantification

Déviation systématique introduite par la conversion en représentation de précision réduite, pouvant être compensée par des techniques d'ajustement statistique pendant la calibration.

📖
termer

Table de Recherche LUT

Structure de données précalculée stockant les correspondances entre valeurs quantifiées et déquantifiées, optimisant les opérations de conversion pendant l'inférence pour accélérer les calculs.

📖
termer

Perte de Précision

Dégradation mesurable de la performance du modèle due à la réduction de la précision numérique, évaluée par des métriques comme la dégradation de l'accuracy ou l'augmentation de l'erreur de prédiction.

📖
termer

Weight Optimization

Fine-tuning process of model weights after quantization to compensate for introduced errors, using techniques such as bias correction or batch adjustment.

📖
termer

Min-Max Calibration

Calibration technique using extreme values observed in the dataset to define the quantization range, simple but sensitive to outliers that may degrade accuracy.

📖
termer

Percentile Calibration

Robust calibration method using percentiles (e.g., 99.9%) rather than extreme values, avoiding outlier influence and optimizing dynamic range utilization.

📖
termer

Per-Layer Quantization

Approach applying identical quantization parameters to all weights of a layer, simplifying implementation but potentially suboptimal for weights with varied distributions.

📖
termer

Per-Channel Quantization

Advanced technique independently quantizing each output channel of a convolutional layer, better preserving accuracy at the cost of slightly increased computational complexity.

🔍

Inga resultat hittades