机器学习与深度学习系列连载: 第二部分 深度学习(十三)循环神经网络 1(Recurre Neural Network 基本概念 )
2018-11-08 10:06
585 查看
循环神经网络 1(Recurre Neural Network 基本概念 )
循环神经网络的特点:
• RNNs 在每个时间点连接参数值,参数只有一份
• 神经网络出了输入以外,还会建立在以前的“记忆”的基础上
• 内存的要求与输入的规模有关
当然,他的深度不只有一层:
1. 公式表达
对于输入x1…xT , 我们有记忆h和分类结果yhat
2 .RNN 语言处理模型
在自然语言处理中,RNN和它的模型变种,是主力军。
(1) 输入层、隐藏层、参数设置
是初始化的在时间点0的隐藏层向量
是在时间点t的输入向量
是其中各参数集的维度设置:
(2) Loss
是在整个词汇表中的概率分布
整个Loss函数:
整体的Loss:
3 .RNN 训练
RNN的训练比较难,原因如下:
- 每次前向传播的时候,乘以的都是同一个参数矩阵W
- 好多步以前的输入,可能会影响现在的结果
- 求导的过程非常长
相应的就会出现梯度消失或者爆炸的问题(vanishing/exploding)
原因推导:
- 总的误差是每一个时间点的误差的和
- 根据chain-rule:
很多数值的相乘,如果乘数大于1,结果容易爆炸,如果小于1,结果趋近于0
本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229,斯坦福大学cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!
阅读更多相关文章推荐
- 机器学习与深度学习系列连载: 第二部分 深度学习(十五)循环神经网络 3(Gated RNN - GRU)
- 机器学习与深度学习系列连载: 第二部分 深度学习(十六)循环神经网络 4(BiDirectional RNN, Highway network, Grid-LSTM)
- 机器学习与深度学习系列连载: 第二部分 深度学习(十四)循环神经网络 2(Gated RNN - LSTM )
- 机器学习与深度学习系列连载: 第二部分 深度学习(十七)深度神经网络调参之道(learn to learn)
- 机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network
- [机器学习入门] 李宏毅机器学习笔记-34 (Recurrent Neural Network part 3;循环神经网络 part 3)
- 机器学习与深度学习系列连载: 第二部分 深度学习(二十四) Pointer Network
- Recurrent Neural Network系列1--RNN(循环神经网络)概述
- [机器学习入门] 李宏毅机器学习笔记-33 (Recurrent Neural Network part 2;循环神经网络 part 2)
- 机器学习与深度学习系列连载: 第二部分 深度学习(二十三) 空间转换层 Spatial Transfer Layer
- 机器学习与深度学习系列连载: 第二部分 深度学习(二十二) 机器记忆 Machine Memory
- [机器学习入门] 李宏毅机器学习笔记-32 (Recurrent Neural Network part 1;循环神经网络 part 1)
- 机器学习与深度学习系列连载: 第二部分 深度学习(十八) Seq2Seq 模型
- 概述 循环神经网络(RNN-Recurrent Neural Network)(1)
- 循环神经网络 (Recurrent Neural Network)的训练
- 循环神经网络教程-第二部分 用python numpy theano实现RNN
- 循环神经网络RNN(Recurrent Neural Network)
- 循环神经网络(Recurrent Neural Network, RNN)与LSTM
- 详解循环神经网络(Recurrent Neural Network)
- 循环神经网络(Recurrent Neural Network,RNN)