cs231n---梯度下降
2017-06-05 09:52
197 查看
1 梯度计算
梯度:代表改变量对最终结果的影响
x,y,q处梯度<-4 对最终结果有消极影响
z处梯度>0 对最终结果有积极影响(给z一个小增量h,最终结果增加3h)
正梯度:损失随其增加而增加
2 链式法则示例
反向传播:不停使用链式法则,反向传播中存储局部梯度值
举例:
max gate:梯度路由
add gate:梯度分配
3 向量化的操作:
梯度:雅可比矩阵 4096 * 4096
对角矩阵:元素值为1/0
minibatch训练时: 100 *4096-d维数很大
梯度:代表改变量对最终结果的影响
x,y,q处梯度<-4 对最终结果有消极影响
z处梯度>0 对最终结果有积极影响(给z一个小增量h,最终结果增加3h)
正梯度:损失随其增加而增加
2 链式法则示例
反向传播:不停使用链式法则,反向传播中存储局部梯度值
举例:
max gate:梯度路由
add gate:梯度分配
3 向量化的操作:
梯度:雅可比矩阵 4096 * 4096
对角矩阵:元素值为1/0
minibatch训练时: 100 *4096-d维数很大
相关文章推荐
- CS231n课程笔记3.2:梯度下降
- cs231n-梯度下降及在线性分类器的应用
- 梯度下降法总结
- 梯度下降法——批量和随机
- 线性规划、梯度下降、正规方程组——斯坦福ML公开课笔记1-2
- 加速梯度下降法
- 机器学习数学基础(1)-回归、梯度下降
- 梯度下降法和随机梯度下降法
- 机器学习系列之梯度下降法
- Logistic回归与梯度下降法
- 第一周-机器学习-梯度下降(gradient descent)
- 机器学习知识点(五)梯度下降法Java实现
- 梯度下降法的三种形式BGD、SGD以及MBGD
- 机器学习算法 原理、实现与实践 —— 感知机与梯度下降
- 深度学习:基于梯度下降不同优化算法的比较总结
- 机器学习笔记1——线性回归,梯度下降
- 最大似然估计、梯度下降、EM算法、坐标上升
- 神经网络之梯度下降与反向传播(下)
- 从梯度下降到拟牛顿法:详解训练神经网络的五大学习算法
- 梯度下降的一阶泰勒公式展开证明