扩散模型微调
Quantification de Poids pour Fine-tuning
Technique de réduction de la précision numérique des poids d'un modèle de fine-tuning (ex: de FP32 à FP16 ou INT8) pour diminuer la taille du fichier et l'usage mémoire, souvent au détriment d'une légère perte de qualité.
← 返回