Batch Normalization & Layer Normalization
2016-07-26 10:50
316 查看
Batch Normalization:
原文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
详细说明:http://blog.csdn.net/hjimce/article/details/50866313
理解:http://blog.csdn.net/shuzfan/article/details/50723877
效果为什么好:https://www.zhihu.com/question/38102762
Layer Normalization:
原文:Layer Normalization
Batch Normalization解决的是Internal Covariate Shift问题,即由于每一层的参数都在不断变化,所以输出的分布也会不断变化,造成梯度需要不断适应新的数据分布。所以,每一个mini batch里,对每个维度进行归一化。同时,为了反映数据的实际变化,再加上两个参数。(感觉是因为出现了震荡的问题,所以会想到这一招)
Layer Normalization,对每一层的进行归一化,所以就跟batch size什么的没有关系。
这么理解,Batch Normalization是竖着来归一,Layer Normalization是横着来归一。
原文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
详细说明:http://blog.csdn.net/hjimce/article/details/50866313
理解:http://blog.csdn.net/shuzfan/article/details/50723877
效果为什么好:https://www.zhihu.com/question/38102762
Layer Normalization:
原文:Layer Normalization
Batch Normalization解决的是Internal Covariate Shift问题,即由于每一层的参数都在不断变化,所以输出的分布也会不断变化,造成梯度需要不断适应新的数据分布。所以,每一个mini batch里,对每个维度进行归一化。同时,为了反映数据的实际变化,再加上两个参数。(感觉是因为出现了震荡的问题,所以会想到这一招)
Layer Normalization,对每一层的进行归一化,所以就跟batch size什么的没有关系。
这么理解,Batch Normalization是竖着来归一,Layer Normalization是横着来归一。
相关文章推荐
- 腾讯后台开发笔试知识点汇总
- Android开发创建文件夹失败解决方案
- Eclipse IDE中Android新建项目打红叉的解决方法
- Apache Shiro学习笔记(二)身份验证subject.login过程
- Java监测窗口事件
- iOS9 Universal Link实现
- Java ConcurrentModificationException异常
- Jenkins+Docker搭建持续集成测试环境
- html基础
- 中国剩余定理 模板
- SPPLayer
- Spring中属性文件properties的读取与使用
- Java实现双向链表的基本操作
- android studio no usages found in project
- (报错)java.lang.SecurityException: Permission Denial: opening provider
- 集合类区别
- java应用程序利用Exe4j打包exe文件
- iOS与HTML5交互方法总结
- 利用正则表达式清除内嵌样式
- iOS开发从入门到精通-- 滚动视图UIScrollView高级,协议。