训练网络像是买彩票?神经网络剪枝最新进展之彩票假设解读澎湃号·湃客澎湃新闻

神经网络剪枝技术可以极大的减少网络的参数,并降低存储要求,和提高推理的计算性能。而且目前这方面最好的方法通常能保持很高的准确性。因此对通过修剪产生的稀疏架构的研究是一个很重要的方向。本选题的思路是对以下两篇论文做深度解读,一探当今最好的剪枝方法的究竟。

现在有了性能更强的GPU,计算一个更深的神经网络、参数更多的神经网络根本不成问题。但事实上并不是每个人都是人手几张卡的,对于具有更多层和节点的神经网络,减少其存储和计算成本变得至关重要。并且,随着移动设备和可穿戴设备的普及,如何让这些模型在计算能力并不强的移动端也能很好地应用,也成为亟待解决的问题。因此越来越多的研究者开始研究神经网络模型压缩。

综合现有的模型压缩方法,它们主要分为四类:参数剪枝和共享(parameterpruningandsharing)、低秩分解(low-rankfactorization)、转移和紧凑卷积核(transferred/compactconvolutionalfilters)、知识蒸馏(knowledgedistillation)[1]。

论文1:TheLotteryTicketHypothesis:FindingSparse,TrainableNeuralNetworks

介绍

机器学习的训练过程,是数据科学家在理论与现实之间面临的妥协之一。通常情况下,对于特定问题而言,由于训练成本的限制,理想的神经网络架构不能完全实现。一般而言,神经网络最初的训练需要大量的数据集和昂贵的计算成本,其结果得到一个隐藏层之间充满复杂连接的庞大的神经网络结构。这种结构往往需要经过优化技术,移除某些连接来调整模型的大小。数十年来困扰研究者的一个问题是我们是否真的需要这样的庞大的神经网络结构。很明显,如果我们连接网络中的每个神经元,可以解决特定的问题,但可能因为高昂的成本而被迫止步。难道我们不能从更小、更精简的网络开始训练吗?这就是彩票假设的本质。

以博彩来类比,训练机器学习模型就相当于通过购买每一张可能的彩票来获得中奖彩票。但是如果我们知道中奖彩票长什么样子,那么是不是就可以更聪明地来选择彩票?在机器学习模型中,训练过程得到的巨大的神经网络结构相当于一大袋彩票。在初始训练之后,模型需要进行优化,例如剪枝,删除网络中不必要的权重,从而在不牺牲性能的情况下减小模型的大小。这就相当于在袋子中寻找中奖彩票,然后扔掉剩下的彩票。通常情况下,经过剪枝后的网络结构要比原始的小90%左右。那么问题来了,如果网络结构可以缩小,那么为了提高训练效率为什么不一开始就训练这个更小的网络呢?然而,已经有许多实验证明了,如果从头开始训练剪枝后的网络,得到的准确率要比原始网络低很多。

MIT的彩票假设背后的思想是,一个大型的神经网络包含一个小的子网络,如果一开始就训练,那么会得到和原始网络相似的准确率。

彩票假设

我们将一个复杂网络的所有参数当做奖池,上述一组子参数对应的子网络就是中奖彩票。

如何找到中奖彩票

如果彩票假设是正确的,那么下一个问题就是如何设计一种策略来找出中奖彩票。作者提出一种通过迭代找到中奖彩票的方法:

1.随机初始化一个复杂神经网络

2.训练这个网络j次直到收敛

3.剪掉部分权重参数

4.将剩下的子网络用第1步的权重进行初始化,创建中奖彩票

5.为了评估第4步得到的子网络是否是中奖彩票,训练子网络,比较准确率

上述过程可以进行一次或者多次,在只有一次剪枝时,网络训练一次,p%的权重被剪掉。论文中迭代进行n次剪枝,每一次剪掉p^(1/n)%的权重。

实验分析

作者分别在针对MNIST的全连接神经网络和针对CIFAR10的卷积神经网络上做了大量实验。这里以MNIST实验为例:

Pm代表网络还剩下多少的参数。从图3可以观察到,不同剪枝率的子网络的性能不一样,当Pm>21.2%时,Pm越小,即剪枝的参数越多,准确率越高,当Pm<21.1%时,Pm越小,准确率会下降。中奖彩票要比原始网络收敛的更快,同时具有更高的准确率和泛化能力。

由图4可以观察到,迭代剪枝要比oneshot剪枝更快找到中奖彩票,而且在子网络规模较小的情况下依然可以达到较高的准确率。为了衡量中奖彩票中初始化的重要性,作者保留了中奖彩票的结构然后使用随机初始化重新训练。与中奖彩票不同的是,重新初始化的网络学习速度比原来的网络越来越慢,并且在进行少量剪枝之后就会失去测试精度。

总结

本文中,作者提出了彩票假设并给出一种寻找中奖彩票的方法,通过迭代非结构化剪枝的方式可以找到一个子网络,用原始网络的初始化参数来初始化,可以在性能不下降的情况下更快的训练这个子网络,但是如果用随机初始化方法却达不到同样的性能。

论文2:DeconstructingLotteryTickets:Zeros,Signs,andtheSupermask

彩票假设回顾

Frankle和Carbin在彩票假设(LT)论文中提出一种模型剪枝方法:对网络训练后,对所有小于某个阈值的权重置0(即剪枝),然后将剩下的权重重置成原始网络初始的权重,最后重新训练网络。基于这种方法,得到了两个有趣的结果。

一方面经过大量剪枝的网络(删掉85%-95%的权重)与原网络相比性能并没有明显的下降,而且,如果仅仅剪掉50%-90%的权重后的网络性能往往还会高于原网络。另一方面,对于训练好的普通网络,如果重新随机初始化权重然后再训练,得到的结果与之前的相当。而对于彩票假设的网络并没有这个特点,只有当网络使用和原网络一样的初始化权重,才能很好地训练,如果重新初始化会导致结果变差。剪枝掩模(如果删掉权重置0,否则为1)和权重的特定组合构成了中奖彩票。

存在的问题

虽然上篇论文里证明了彩票假设是有效的,然而许多潜在的机制尚未得到很好的理解。例如:LT网络如何使他们表现出更好的性能?为什么掩模和初始权重集如此紧密地耦合在一起,以至于重新初始化网络会降低它的可训练性?为什么简单地选择大的权重构成了选择掩模的有效标准?其他选择掩模的标准也会起作用吗?本篇论文提出了对这些机制的解释,揭示了这些子网络的特殊模式,引入了与彩票算法相抗衡的变体,并获得了意外发现的衍生品:超级掩模(supermask)。

掩模准则

作者将每个权重的掩模值设为初始权值和训练后的权值的函数M(w_i,w_f),可以将这个函数可视化为二维空间中的一组决策边界,如图1所示。不同的掩码标准可以认为是将二维(wi=初始权值,wf=最终权值)空间分割成掩码值为1vs0的区域。

如图所示的掩码准则由两条水平线标识,这两条水平线将整个区域划分为掩码=1(蓝色)区域和掩码=0(灰色)区域,对应于上篇论文中使用的掩模准则:保留最终较大的权重,并剪掉接近于零的权重。作者将这种称为large_finalmask,M(w_i,w_f)=|w_f|。作者还提出了另外8种掩模准则,对应的公式都在下图表示出来了,保留椭圆中彩色部分的权重,将灰色部分的权重剪掉。

作者对这些掩模准则做了一系列对比试验,对于全连接和Conv4网络结果如下图所示。可以发现,magnitudeincrease和large_final相比不相上下,在Conv4网络中还要表现的更好一些。

以随机掩模为基线,我们可以发现那些倾向于保留具有较大最终值的权重的准则能更好的发现子网络,而保留小权值的效果较差。

正负号的重要性

现在已经探索了对哪些权重进行减值效果较好。接下来的问题是该将保留下来的权重重置为何值。作者主要是想研究上篇论文中的一个有趣的结果,当重置为原网络初值的时候效果很好,但当随机初始化时,效果会变差。为什么重新初始化效果会变差以及初始化的哪些条件最重要?为了找到问题的答案,作者做了一系列初始化的实验。

Reinit:基于原始的初始化分布来初始化保留的权重

Reshuffle:基于保留权重的原始分布进行初始化

Constant:将保留的权重设为正或负的常数,即每层原初始值的标准差

可以发现保留权重的初始值并没有保留正负号这么重要。如果使用其他的初始化方法,但是忽略正负号,那么效果很差,和随机初始化差不多(图中虚线)。而如果和原来的权重保持一样的正负号,三种方法和LT网络的初始化效果相差无几(图中实线)。只要保持正负号一致,即使将剩下的权重都设为常量也不会影响网络的表现。

超级掩模

在开头提到了超级掩模的概念,它是一种二值掩模,当作用到随机初始化的网络上时,即使不重新训练,也可以得到更高的准确率。下面介绍如何找到最佳的超级掩模。

基于上述对初始符号重要性的洞察以及让权重更接近最终值的考虑,作者引入了一种新的掩模准则,选择较大的权重,而且这些权重在训练后也保持相同的正负号,作者将其称为large_final,samesign。并且用large_final,diffsign作为对照,两者的区别如下图所示。

参考文献

1.Cheng,Yu,etal."Asurveyofmodelcompressionandaccelerationfordeepneuralnetworks."arXivpreprintarXiv:1710.09282(2017).

2.Frankle,Jonathan,andMichaelCarbin."Thelotterytickethypothesis:Findingsparse,trainableneuralnetworks."ICLR(2019).

3.Zhou,Hattie,etal."Deconstructinglotterytickets:Zeros,signs,andthesupermask."arXivpreprintarXiv:1905.01067(2019).

THE END
1.什么时间段去打彩票中奖概率高?据一些长期买彩票的老彩民讲,买彩票 时间上也要讲究技巧,他们表示,这种某些时间段去买彩票,中奖率会高一些。下面给大家推荐几个老彩民总结出了的所谓的经验。 1、有些彩民说买彩票要赶早,彩票店开门后每天打的头几注彩票,相对中奖率会高一些。因为是每天的开机票,人们认为是开门红。所以要在彩票店开门之前去门口https://www.360doc.cn/article/61248794_831173168.html
2.每天买一注彩票,多少天能中大奖?元气高山nB的回答这样分析吧,我住在一个小县城,彩票开始销售到现在有近30年的时间,全县每天买彩票的人也不少,30年http://wukong.toutiao.com/answer/7099805114856735014/
3.买彩票如何提高中奖机率?我老是不中,有什么方法吗?爱问知识人数字区间选择:仔细观察彩票中奖号码一览表,你会发现,时常有某个数字区间的数字全然没有踪影。而对此https://iask.sina.com.cn/b/85396.html
4.生活中的概率(精选十篇)我们在日常生活中的好多事情都多多少少牵扯到了统计或者概率计算的问题,例如人口普查,粮食生产状况的研究,交通状况的研究,体育项目成绩的研究;天气预报中的降水概率,买彩票的中奖概率,患有某种遗传病的概率等。生活中的概率问题往往让我们意想不到,学会怎样运用概率,可以让我们简单的解决生活中遇到的一些问题,有时候还https://www.360wenmi.com/f/cnkeybrueeyc.html
5.专业团队专业分析保证中奖率?网络彩票暗藏玄机……央视网消息:如果有人跟您说,在网站上买彩票,也可以像买理财产品一样,可以技术分析幸运号码保证中奖率,您会相信吗?这种听起来像天上掉馅饼的事儿,很有可能是不法分子骗钱的新花样。 前段时间,家住山东菏泽巨野县的陈女士在家上网的时候,加入了一个微信理财群。 https://news.cctv.com/2019/05/20/ARTIsB2BZqcKOM2SFLDaX5CC190520.shtml
6.如何提高彩票中奖几率:13步骤如何提高彩票中奖几率. 不管你做何努力,即开型彩票赔得总比赢得多,但是学习进行最明智的选择,可以帮助你始终走在其他人前面。避免一般大乐透玩家的常见错误,可以帮助你创造额外机会,避免失败。不管怎样,它始终是赌博,但是你可以让自己承担的风险尽可能地小。想要提高http://zh.m.wikihow.com/%E6%8F%90%E9%AB%98%E5%BD%A9%E7%A5%A8%E4%B8%AD%E5%A5%96%E5%87%A0%E7%8E%87?amp=1
7.彩票中奖概率计算过程中奖概率算法公式周六周末无聊,想着买彩票,万一中奖了就不用上班啦,哈哈。所以就计算了一下中奖概率。 中奖规则: 一等奖:投注号码与当期开奖号码全部相同(顺序不限,下同),即中奖; 二等奖:投注号码与当期开奖号码中的6个红色球号码相同,即中奖; 三等奖:投注号码与当期开奖号码中的任意5个红色球号码和1个蓝色球号码相同,即中奖;https://blog.csdn.net/Allenzyg/article/details/108197753
8.速速登录,尊享无限优惠:登录登录站点24小时娱乐用心打造最佳上线品牌,6762官方彩票,2021棋牌提现快的棋牌,58棋牌游戏手机版,365在线体育app下载0199游戏中心,758彩官方版下载安装v5.4.6,88彩票线路会员一站,49选3的中奖几率,24h微信上下分捕鱼06年世界杯冠军,457棋牌官网官方版fxzls-1.2 -安卓 -a902,106彩票网app,6k手机app,163登录官网登录500vhttp://m.qpyzej.com/UWW/detail/ljSZapjAYXcX.html
9.那个刮刮乐中奖100万的年轻人,“消失”了社会关注彩票不再只是暴富执念 工作赚钱100万和彩票中奖100万,哪个更容易? 这届年轻人,两个都想实现。左手科学搞钱,右手彩票公益,直接把彩票销量买出了高纪录。 近期,财政部公布了2023年1-11月彩票销售数据,1-11月全国共销售彩票5264.12亿元,同比增长45.1%。 https://www.jnnews.tv/p/1028351.html
10.官网平台网址登录入口合买彩票中奖率大吗 明珠国际娱乐城 洪都论坛 十大官网品牌 中宝娱乐城博彩有限公司 国家认证彩票 时时彩代理赚钱 gmg娱乐总代理 985彩票官网下载 快乐8速杀表 666.uuav1.icu yecaoav.vlp 盘口网赌官网 诚信彩票下载 靠谱的亚博正规网址 58博彩论坛 凤凰联盟官网入口 8455新葡萄娱乐场特色http://m.htkj.info/720344.html