您的位置:首页 > 其它

课程笔记——Review: Basic Structures for Deep Learning

2019-07-07 14:13 218 查看
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/mintminty/article/details/94865796

1.Fully Connected Layer

标记方法

  • aila_i^lail​:第lll层的第iii个神经元,将同一层的aila_i^lail​串在一起形成的向量表示为ala^lal
  • WijlW_{ij}^lWijl​:即l-1层和l层相连的权重,其中i表示l层连接的神经元,其中j表示l-1层连接的神经元
  • zilz_i^lzil​:第lll层的第iii个神经元的激活函数的输入

2.Recurrent Structure(同样结构反复使用)

LSTM结构

GRU(Gate Recurrent Unit):与LSTM相比,该结构用的三个矩阵(LSTM用四个),参数少些 不容易过拟合

(1)将ht−1h^{t-1}ht−1、xtx^txt并在一起,乘矩阵(蓝色粗箭头表示)再通过激活函数得到r(reset−gate)r(reset-gate)r(reset−gate)、z(upset−gate)z(upset-gate)z(upset−gate)
(2)将ht−1h^{t-1}ht−1和rrr进行元素相乘得到新矩阵,将该矩阵和xtx^txt并在一起,乘矩阵(黄色粗箭头表示)再通过激活函数得到h′h'h′
(3)将ht−1h^{t-1}ht−1和zzz进行元素相乘,将h′h'h′和1−z1-z1−z进行元素相乘,再相加得到hth^tht
(4)hth^tht乘另一个矩阵得到yty^tyt

Stack RNN
注:push即将该信息放入现在输入的最前方;pop即将最上方的值丢掉;nothing即什么都没有做

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐