小象学院深度学习笔记1(传统神经网络)
2017-07-28 09:28
369 查看
神经网络起源于线性回归,是线性到非线性的转变
即使损失大量特征,因为特征足够多不会对模型的特征获取有太多影响。
线性回归网络可以简化为一层,多个系数矩阵的相乘可以转化成一个系数矩阵
赋予不同参数不同的权重值;多目标任务例如目标检测,既要分类又要进行定位;不同的网络模型的loss值得融合,例如VGG+Google,每个网络模型相当于一个神经元。
竞赛和业界中的套路:各种net的ensemble。
对训练的任务不太清楚,推荐一开始采用fixed。
原来的速度维持一点,再和新的learning rate结合。防止变太多,从而导致收敛速度下降。动量和调大学习率的区别:动量是矢量叠加考虑得更多会有一个新的方向会更准,调大学习率没有改变方向。
和动量相比,先前一步算出来两者结合而来
课程链接:https://www.bilibili.com/video/av10324235/index_2.html#page=2
即使损失大量特征,因为特征足够多不会对模型的特征获取有太多影响。
线性回归网络可以简化为一层,多个系数矩阵的相乘可以转化成一个系数矩阵
赋予不同参数不同的权重值;多目标任务例如目标检测,既要分类又要进行定位;不同的网络模型的loss值得融合,例如VGG+Google,每个网络模型相当于一个神经元。
竞赛和业界中的套路:各种net的ensemble。
对训练的任务不太清楚,推荐一开始采用fixed。
原来的速度维持一点,再和新的learning rate结合。防止变太多,从而导致收敛速度下降。动量和调大学习率的区别:动量是矢量叠加考虑得更多会有一个新的方向会更准,调大学习率没有改变方向。
和动量相比,先前一步算出来两者结合而来
课程链接:https://www.bilibili.com/video/av10324235/index_2.html#page=2
相关文章推荐
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第一周)
- DeepLearning.ai学习笔记(一)神经网络和深度学习--Week4深层神经网络
- 深度学习笔记四循环神经网络RNN
- Andrew深度学习笔记01——神经网络
- 深度学习(二)-----传统神经网络
- 王小草【深度学习】笔记第三弹--神经网络细节与训练注意点
- [DeeplearningAI笔记]改善深层神经网络_深度学习的实用层面1.10_1.12/梯度消失/梯度爆炸/权重初始化
- 神经网络与深度学习笔记——3.3计算神经网络输出
- 神经网络与深度学习学习笔记:正向传播与反向传播(未完)
- 深度学习学习笔记——(1)神经网络
- 深度学习笔记1:神经网络理解
- MXNet动手学深度学习笔记:VGG神经网络实现
- 吴恩达老师深度学习视频课笔记:多隐含层神经网络公式推导(二分类)
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(5-1)-- 循环神经网络
- DAY1:神经网络基础和深度学习笔记整理
- 学习笔记:Deep Learning(二)深度神经网络以及正则化
- 深度学习—传统神经网络总结
- 吴恩达神经网络和深度学习课程自学笔记(七)之超参数调试,Batch正则化和程序框架
- [DeeplearningAI笔记]改善深层神经网络_深度学习的实用层面1.9_归一化normalization
- 神经网络与深度学习 笔记1 感知机 S型神经元