您的位置:首页 > 运维架构

深度学习中的正则化技术--DropOut&DropConnect

2018-12-25 11:48 323 查看


上次的有L1,L2范数正则化,这次介绍 DropOut及其衍生出来的DropConnect
L1,L2范数正则化与 DropOut正则化的原理有本质上的不同

Drout的原理是

dropout是在经过激活函数之后,再经过一个函数用于控制是否输出,不输出的概率是p
dropout对于提升性能有很大提升,最主要的观点是从集成学习的角度解释的


以天气预报为例,预测未来7天的天气,5个分类器同时独立进行预测,每个都有误差,但是将五个分类器的结果按照少数服从多数的原则进行归纳,得到的最后结果与现实生活的天气状况完全一致

Dropout可以看成是又许多共享权重的小网络组成的bagging模型

为了使得训练的结果能够用于测试、应用,还应当对数据进行处理,可以在训练的时候就改,也可以在测试、应用的时候改。经过1,2中的任一个即可,道理也比较容易懂

Dropout是在激活函数之后控制是否输出,而Dropconnect是在输出之后控制任意两个结点的连接关系,Dropconnect的颗粒度更小,效果也会更好,输入到下一层之后再经过激活函数,相比dropout计算都是有效的

b,c展示了上一层输出和下一层输出的关系,明显Dropconnect的颗粒度更小

效果展示,横线是在不使用dropout的情况下mnist的错误数量。可以看到输入层DropOut20%+隐藏层DropOut50%的效果比只DropOut50%隐藏层结点的效果要好,使用比不使用的效果要好

下面比较Dropout和DropConnect的性能,一般来说Dropconnect的性能比Dropout的效果好点。然而,并不是完全呈这种关系,有时还和激活函数有关

诶,神经网络就是佛系,都没有人解释清楚出原理,效果怎么好就怎么来吧。佛系调参

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: