神经网络和深度学习——浅层神经网络(3)
2018-09-27 21:30
387 查看
神经网络
单个样本时:
和 均表示是第一层的参数,用方括号表示。 其中下角标表示的是第一层第n个点的参数
多个样本时:
上面是神经网络梯度下降的迭代过程,其中重要的是参数求导:
keepdims=true作用是确认的矩阵格式,符号*是点乘,即矩阵对应项相乘。
参数初始化
神经网络参数初始化时不能全部初始化为0,这样会让每个隐藏层的函数相同,隐藏层堆成,这样的话设置多个隐藏层就没有意义了。解决办法是随机初始化:
参数0.01的作用是使参数初始化值尽量小,如果参数初始化值过大,z也会过大,当使用 激活函数或者tanh激活函数时,z值大时函数趋于平缓,这样会使梯度下降速率变慢。
阅读更多相关文章推荐
- 【深度学习】③--神经网络细节与训练注意点
- class1:神经网络浅讲:从神经元到深度学习
- 深度学习:优化神经网络(1)
- 【神经网络与深度学习】【Python开发】Caffe配置 windows下怎么安装protobuf for python
- 吴恩达老师深度学习视频课笔记:多隐含层神经网络公式推导(二分类)
- 七分钟带你读懂深度学习之什么是神经网络
- 深度学习之TensorFlow构建神经网络层
- Ng深度学习 L层神经网络搭建和实例
- 【神经网络与深度学习】leveldb的实现原理
- TensorFlow 深度学习框架 (1)-- 神经网络与前向传播
- 人工智能、神经网络、深度学习重要会议
- TensorFlow 深度学习框架 (2)-- 反向传播优化神经网络
- TensorFlow 深度学习笔记 TensorFlow实现与优化深度神经网络
- Andrew NG 深度学习课程笔记:神经网络、有监督学习与深度学习
- TensorFlow 深度学习笔记 TensorFlow实现与优化深度神经网络
- 【神经网络与深度学习】caffe+VS2013+Windows无GPU快速配置教程
- 深度学习算法之卷积神经网络简介
- 【深度学习】RNN(循环神经网络)之LSTM(长短时记忆)
- 循环神经网络RNN(二)深度学习之父的神经网络第八课(中文字幕)
- 神经网络浅讲:从神经元到深度学习