二十八(使用BP算法思想求解Sparse coding中矩阵范数导数)
2016-01-14 07:59
225 查看
前言:
关于Sparse coding目标函数的优化会涉及到矩阵求数问题,因为里面有好多矩阵范数的导数,加上自己对矩阵运算不熟悉,推导前面博文Deep learning:二十六(Sparse coding简单理解)中关于拓扑(非拓扑的要简单很多)Sparse coding代价函数对特征变量s导数的公式时,在草稿纸上推导了大半天也没有正确结果。该公式表达式为:
![](http://images.cnitblog.com/blog/381513/201304/15155945-54581fda6ede4c4a84921fd03993736e.png)
后面继续看UFLDL教程,发现这篇文章Deriving gradients using the backpropagation idea中已经给出了我想要的答案,作者是应用BP神经网络中求网络代价函数导数的思想,将上述代价函数演变成一个多层的神经网络,然后利用每层网络中节点的误差值来反向推导出每一层网络节点的导数。Andrew
Ng真值得人佩服,给出的教程切中了我们的要害。
在看怎样使用BP思想计算矩阵范数的导数时,先看下针对这种问题求解的BP算法形式(和以前经典的BP算法稍有不同,比如说最后一层网络的误差值计算方法,暂时还没弄明白这样更改的理由):
对网络(由代价函数转换成的网络)中输出层中节点的误差值,采用下面公式计算:
![](http://images.cnitblog.com/blog/381513/201304/15155958-17222503442e4e1db5589b471d3f5544.png)
2. 从网络的倒数第2层一直到第2层,依次计算网络每层的误差值:
![](http://images.cnitblog.com/blog/381513/201304/15160029-70c9a50613f843d8897aad4e22f60f36.png)
3. 计算网络中l层的网络参数的偏导(如果是第0层网络,则表示是求代价函数对输入数据作为参数的偏导):
![](http://images.cnitblog.com/blog/381513/201304/15160039-578d078d103c4ab8bbf84df711a216a1.png)
比如在上篇博文中Deep learning:二十七(Sparse coding中关于矩阵的范数求导),就使用过将矩阵范数转换成矩阵的迹形式,然后利用迹的求导公式得出结果,那时候是求sparse coding中非拓扑网络代价函数对权值矩阵A的偏导数,现在用BP思想来求对特征矩阵s的导数,代价函数为:
![](http://images.cnitblog.com/blog/381513/201304/15160116-a5aab4b12fa54c2fba1b1883ce0b80be.png)
将表达式中s当做网络的输入,依次将公式中各变量和转换关系变成下面的网络结构:
![](http://images.cnitblog.com/blog/381513/201304/15160134-919f5c0716234978a8baad12868a6320.png)
列出每一层网络的权值,activation函数及其偏导数,误差值,每一层网络的输入,如下所示:
![](http://images.cnitblog.com/blog/381513/201304/15160146-f6f53320f227482a81c36e7309ae0132.png)
求最后一层网络的误差值时按照前面BP算法的方法此处是:最后一层网络的输出值之和J对最后一层某个节点输入值的偏导,这里的J为:
![](http://images.cnitblog.com/blog/381513/201304/15160204-124af463595d4d28afb48c373f8ad4db.png)
因为此时J对Zi求导是只对其中关于Zi的那一项有效,所以它的偏导数为2*Zi。
最终代价函数对输入X(这里是s)的偏导按照公式可以直接写出如下:
![](http://images.cnitblog.com/blog/381513/201304/15160216-47ebd4c02846462e92eaf3ab861a0eca.png)
下面继续来看那个我花了解决一天时间也没推倒出来的偏导数,即在拓扑sparse coding代价函数中关于特征矩阵s的偏导公式。也就是本文一开始给出的公式。
用同样的方法将其转换成对应的网络结构如下所示:
![](http://images.cnitblog.com/blog/381513/201304/15161504-ac4ecf16e14646ceab99a37f04044e99.png)
也同样的,列出它对应网络的参数:
![](http://images.cnitblog.com/blog/381513/201304/15161523-aa53dae7d74d4ffcb4b77617b46bcd44.png)
![](http://images.cnitblog.com/blog/381513/201304/15161709-84bb79c5aa294c388c643b2617f5c598.png)
其中的输出函数J如下:
![](http://images.cnitblog.com/blog/381513/201304/15161813-04a9ba77f57c4789b8a6fef38bed9572.png)
最终那个神奇的答案为:
![](http://images.cnitblog.com/blog/381513/201304/15161822-096be2fcbf844da2b50c8baf75064788.png)
看来这种方法得掌握,如果日后自己论文用到什么公式需要推导的话。
参考资料:
Deep learning:二十六(Sparse coding简单理解)
Deriving gradients using the backpropagation idea
Deep learning:二十七(Sparse coding中关于矩阵的范数求导)
作者:tornadomeet出处:http://www.cnblogs.com/tornadomeet欢迎转载或分享,但请务必声明文章出处。 (新浪微博:tornadomeet,欢迎交流!)
关于Sparse coding目标函数的优化会涉及到矩阵求数问题,因为里面有好多矩阵范数的导数,加上自己对矩阵运算不熟悉,推导前面博文Deep learning:二十六(Sparse coding简单理解)中关于拓扑(非拓扑的要简单很多)Sparse coding代价函数对特征变量s导数的公式时,在草稿纸上推导了大半天也没有正确结果。该公式表达式为:
![](http://images.cnitblog.com/blog/381513/201304/15155945-54581fda6ede4c4a84921fd03993736e.png)
后面继续看UFLDL教程,发现这篇文章Deriving gradients using the backpropagation idea中已经给出了我想要的答案,作者是应用BP神经网络中求网络代价函数导数的思想,将上述代价函数演变成一个多层的神经网络,然后利用每层网络中节点的误差值来反向推导出每一层网络节点的导数。Andrew
Ng真值得人佩服,给出的教程切中了我们的要害。
在看怎样使用BP思想计算矩阵范数的导数时,先看下针对这种问题求解的BP算法形式(和以前经典的BP算法稍有不同,比如说最后一层网络的误差值计算方法,暂时还没弄明白这样更改的理由):
对网络(由代价函数转换成的网络)中输出层中节点的误差值,采用下面公式计算:
![](http://images.cnitblog.com/blog/381513/201304/15155958-17222503442e4e1db5589b471d3f5544.png)
2. 从网络的倒数第2层一直到第2层,依次计算网络每层的误差值:
![](http://images.cnitblog.com/blog/381513/201304/15160029-70c9a50613f843d8897aad4e22f60f36.png)
3. 计算网络中l层的网络参数的偏导(如果是第0层网络,则表示是求代价函数对输入数据作为参数的偏导):
![](http://images.cnitblog.com/blog/381513/201304/15160039-578d078d103c4ab8bbf84df711a216a1.png)
比如在上篇博文中Deep learning:二十七(Sparse coding中关于矩阵的范数求导),就使用过将矩阵范数转换成矩阵的迹形式,然后利用迹的求导公式得出结果,那时候是求sparse coding中非拓扑网络代价函数对权值矩阵A的偏导数,现在用BP思想来求对特征矩阵s的导数,代价函数为:
![](http://images.cnitblog.com/blog/381513/201304/15160116-a5aab4b12fa54c2fba1b1883ce0b80be.png)
将表达式中s当做网络的输入,依次将公式中各变量和转换关系变成下面的网络结构:
![](http://images.cnitblog.com/blog/381513/201304/15160134-919f5c0716234978a8baad12868a6320.png)
列出每一层网络的权值,activation函数及其偏导数,误差值,每一层网络的输入,如下所示:
![](http://images.cnitblog.com/blog/381513/201304/15160146-f6f53320f227482a81c36e7309ae0132.png)
求最后一层网络的误差值时按照前面BP算法的方法此处是:最后一层网络的输出值之和J对最后一层某个节点输入值的偏导,这里的J为:
![](http://images.cnitblog.com/blog/381513/201304/15160204-124af463595d4d28afb48c373f8ad4db.png)
因为此时J对Zi求导是只对其中关于Zi的那一项有效,所以它的偏导数为2*Zi。
最终代价函数对输入X(这里是s)的偏导按照公式可以直接写出如下:
![](http://images.cnitblog.com/blog/381513/201304/15160216-47ebd4c02846462e92eaf3ab861a0eca.png)
下面继续来看那个我花了解决一天时间也没推倒出来的偏导数,即在拓扑sparse coding代价函数中关于特征矩阵s的偏导公式。也就是本文一开始给出的公式。
用同样的方法将其转换成对应的网络结构如下所示:
![](http://images.cnitblog.com/blog/381513/201304/15161504-ac4ecf16e14646ceab99a37f04044e99.png)
也同样的,列出它对应网络的参数:
![](http://images.cnitblog.com/blog/381513/201304/15161523-aa53dae7d74d4ffcb4b77617b46bcd44.png)
![](http://images.cnitblog.com/blog/381513/201304/15161709-84bb79c5aa294c388c643b2617f5c598.png)
其中的输出函数J如下:
![](http://images.cnitblog.com/blog/381513/201304/15161813-04a9ba77f57c4789b8a6fef38bed9572.png)
最终那个神奇的答案为:
![](http://images.cnitblog.com/blog/381513/201304/15161822-096be2fcbf844da2b50c8baf75064788.png)
看来这种方法得掌握,如果日后自己论文用到什么公式需要推导的话。
参考资料:
Deep learning:二十六(Sparse coding简单理解)
Deriving gradients using the backpropagation idea
Deep learning:二十七(Sparse coding中关于矩阵的范数求导)
作者:tornadomeet出处:http://www.cnblogs.com/tornadomeet欢迎转载或分享,但请务必声明文章出处。 (新浪微博:tornadomeet,欢迎交流!)
相关文章推荐
- 1602: [Usaco2008 Oct]牧场行走|Lca
- 二十七(Sparse coding中关于矩阵的范数求导)
- STL vector提高效率注意事项与技巧
- 二十六(Sparse coding简单理解)
- 二十五(Kmeans单层网络识别性能)
- 二十四(stacked autoencoder练习)
- 二十三(Convolution和Pooling练习)
- 二十二(linear decoder练习)
- 二十一(随机初始化在无监督特征学习中的作用)
- Spark Shuffle之Tungsten Sort Shuffle
- 【BLE】CC2541之通过广播发送自定义数据
- iOS开发-UITableView顶部图片下拉放大
- [建议]我对软工有话说(下)
- 8.2.6 PEB —— PEB结构值不正确的问题
- 欢迎使用CSDN-markdown编辑器
- Python字典
- 树莓派个人实测 Q&A(最新修改使用Manjaro连接远程桌面) (二)
- OSChina 周四乱弹 —— 学霸不相信眼泪
- Derivatives of matrix
- Android UI基础之Dialog对话框的使用