赞
踩
模型大小不仅是内存容量问题,也是内存带宽问题
量化就是将神经网络的浮点算法转化为定点
花哨的研究往往是过于棘手或前提假设过强,以至于几乎无法引入工业界的软件栈
Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference揭示了量化感知训练的诸多细节
为什么量化是有效的(具有足够好的预测准确度),尤其是将FP32转换为INT8时已经丢失了信息?直觉解释是神经网络被过度参数化,进而包含足够的冗余信息,裁剪这些冗余信息不会导致明显的准确度下降。相关证据表明对于给定的量化方法,FP32网络和INT8网络之间的准确度差距对于大型网络来说较小,因为大型网络过度参数化的程度更高
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。