剪枝后这个深度神经网络速度提高了 3 倍,体积缩小了 4 倍
目前,深度学习模型需要大量的计算、内存和功耗,这成为我们在实时推理或在计算资源有限的边缘设备以及浏览器上运行模型的瓶颈。能量效率是当前深度学习模型的主要关注点。提升这种效率的方法之一是着眼于推理效率。
更复杂的模型=>更多的内存消耗=>更多的功耗
剪枝就是一种推理方法,它可以有效地获得更小的模型、更高效的内存、更高效的功率和更快的推理,同时在精度上损失较小,其他类似的技术还有权值共享和量化。深度学习的灵感来自于神经科学领域的几个方面。在深度学习中剪枝也是一个受生物学启发的概念,我们将在稍后的文章中进行讨论。
随着深度学习的进步,最先进的模型也变得越来越精确,但这种进步是有代价的,我将在这个博客里对其中的一些进行说明。
挑战一:模型尺度变得越来越大
很难通过空中下载技术来分配大尺度模型。
挑战二:速度
训练时间以fb.resnet.torch为基准,基于M40 GPUs。
如此长的训练时间限制了机器学习研究人员的效率。
挑战三:能量效率
AlphaGo: 1920个cpu和280个gpu,每场比赛3000美元的电费
-
在移动设备上:快速耗尽电池电量
-
数据中心:增加成本
解决方法 — 高效的推断算法
-
剪枝
-
权重共享
-
量化
-
低秩逼近
-
二值神经网络 / 三值神经网络
-
Winograd转换
生物学启发的剪枝算法
人工神经网络中的剪枝被认为是来自人类大脑突触修剪的一个想法,在人类大脑中,当轴突和树突完全衰退和死亡,会导致突触消失,这发生在许多哺乳动物的幼年早期和发育期初期之间。突触修剪从出生时开始,一直持续到25岁左右。
深层神经网络剪枝
[Lecun等. NIPS,89] [Han等. NIPS’15]
网络通常看起来与左边的那个类似:下层的每个神经元都与上层每个神经元相连,但这意味着我们需要将许多浮点数相乘。理想情况下,我们只需要将每个神经元连接到其他的几个神经元上就可以省去一些乘法;这就是所谓的“稀疏”网络。
稀疏模型更容易压缩,而且我们可以在推断时跳过0值以改进推断延迟。
如果可以根据神经元的贡献大小对网络中的神经元进行排序,那么就可以将排名较低的神经元从网络中移除,从而得到一个更小、更快的网络。
获得更快/更小的网络,对于在移动设备上运行这些深度学习网络非常重要。
例如,可以根据神经元权重的L1/L2范数进行排序。在修剪之后,准确性会下降(如果排序较合理,可则能不会下降太多准确率),并且网络通常是迭代地训练-修剪-训练-修剪以较大程度保证模型的准确率。如果我们一次修剪得太多,网络可能会受到严重破坏,无法恢复准确率。因此在实践中,这是一个迭代的过程——通常称为“迭代剪枝”:修剪/训练/重复。
请参阅Tensorflow团队编写的代码,以了解迭代剪枝。
权重修剪
-
将权重矩阵中的单个权重设置为零。这相当于删除连接,如图所示。
-
为了实现k%的稀疏性,我们将权重矩阵W中的各个权重按大小排序,然后将最小的k%的部分权重设置为零。
完整代码查看点击 此处
单元/神经元修剪
-
将权重矩阵中的整个列设置为零,实际上是删除相应的输出神经元。
-
为了达到k%的稀疏性,我们根据权重矩阵的l2范数对列进行排序,并删除最小的k%的列。
完整代码点击 此处
当然了,当您想增加稀疏性并删除更多的部分网络时,模型性能将逐步下降。您估计稀疏性与性能之间的退化曲线是什么样的呢?
利用一个简单的神经网络结构对MNIST数据集上的图像分类模型进行剪枝 ,如下:
引用的参考代码中使用的体系结构
使用代码重新生成的退化曲线图
关键要点
许多研究人员认为剪枝是一种被忽视的方法,但它将得到更多的关注,并在实践中更多地使用。我们展示了如何使用一个非常简单的神经网络结构在一个简单数据集上获得良好的结果。我认为在实践中利用深度学习来解决的许多问题都与此类似,在有限的数据集上使用迁移学习,因此这些问题也可以从修剪算法中受益。
参考
-
Code for this blog post(https://drive.google.com/open?id=1GBLFxyFQtTTve_EE5y1Ulo0RwnKk_h6J)
-
To prune, or not to prune: exploring the efficacy of pruning for model compression, Michael H. Zhu, Suyog Gupta, 2017(https://arxiv.org/pdf/1710.01878.pdf)
-
Learning to Prune Filters in Convolutional Neural Networks, Qiangui Huang et. al, 2018(https://arxiv.org/pdf/1801.07365.pdf)
-
Pruning deep neural networks to make them fast and small(https://jacobgil.github.io/deeplearning/pruning-deep-learning)
-
Optimize machine learning models with Tensorflow Model Optimization Toolkit(https://www.tensorflow.org/model_optimization)
* 文中的相关链接,请点击【
剪枝后这个深度神经网络速度提高了 3 倍,体积缩小了 4 倍
】进行访问。
via https://towardsdatascience.com/pruning-deep-neural-network-56cae1ec5505
你可能错过了这些企业的秋招信息,新增B站、美团、携程、网易等(持续更新中...)
自今天开始,AI研习社会定期搜集并推送各大名企校招岗位和内推信息,同时也会邀请求职成功者和企业人力专家分享求职经验。另外,我们会在社区职荐版块更新 AI 企业校招和社招信息,欢迎有志于在 AI 行业发展的应届毕业生们来 AI 研习社投递简历噢~
点击链接可访问查看过去一段时间企业校招信息:
https://ai.yanxishe.com/page/blogDetail/14121
雷锋网雷锋网 (公众号:雷锋网) 雷锋网
。