赞
踩
本文出自论文 Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding ,主要引入了三个阶段来对深度神经网络进行压缩,分别是:剪枝、训练量化和霍夫曼编码。
为了解决神经网络计算和内存密集型而难以在硬件资源受限的系统上部署的问题,本文引入了深度压缩,它由三个阶段组成:pruning(剪枝)、trained quantization(训练量化)和Huffman coding(霍夫曼编码),它们一起工作来减少神经网络的存储要求并且不影响精度。我们的方法首先通过仅学习重要连接来修剪网络,然后我们对权重进行量化来强制权重共享,最后我们应用霍夫曼编码。在前两个阶段之后,我们重新训练这个网络,对剩余的连接和量化重心进行微调。剪枝减少了连接数量为9x到13x,量化接着减少了表示每个连接的位数从32到5。我们的压缩方法也有利于复杂神经网络在移动应用程序上的使用,这些应用程序的大小和下载带宽都是受限制的。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。