斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降
2014-06-06 16:26
393 查看
(转载请注明出处:http://blog.csdn.net/buptgshengod)
X1,X2....表示的不同的特征,经过算法H的变化,输出Y1,Y2......。可以用公式表达为,X边上的变量就是我们要回归得到的系数。 判断公式。这个ml回归中常用的判断公式,当J函数取到最下情况就是我们所需要的结果。 Andrew形容梯度下降好比一个下山问题。我们首先随机选择出发点,也就是的取值,然后通过J函数求导,不断改变的值,得到最终的回归公式。这就类比于我们一步一步下山,直到山底,值不再变化。 梯度下降还有一个特点就是最终的值根据不同的出发点而不同。
1.感受
这一节课Andrew讲的是监督学习应用中的梯度下降方法(Supervised-Learning,grading and descent)。 公式比较多,不过还比较基础,主要是一些矩阵论的应用。2.笔记
Grading and descent 主要用到的就是一个回归的思路。整体的流程见下图。X1,X2....表示的不同的特征,经过算法H的变化,输出Y1,Y2......。可以用公式表达为,X边上的变量就是我们要回归得到的系数。 判断公式。这个ml回归中常用的判断公式,当J函数取到最下情况就是我们所需要的结果。 Andrew形容梯度下降好比一个下山问题。我们首先随机选择出发点,也就是的取值,然后通过J函数求导,不断改变的值,得到最终的回归公式。这就类比于我们一步一步下山,直到山底,值不再变化。 梯度下降还有一个特点就是最终的值根据不同的出发点而不同。
相关文章推荐
- 斯坦福机器学习公开课笔记(十五)--[应用]照片OCR技术
- 斯坦福大学公开课 :机器学习课程笔记-[第2集] 监督学习应用.梯度下降
- 斯坦福机器学习公开课笔记(一)--单变量线性回归
- 斯坦福机器学习公开课笔记(十三)--推荐系统
- 斯坦福机器学习公开课笔记
- 【机器学习-斯坦福】学习笔记2 - 监督学习应用与梯度下降
- 斯坦福机器学习公开课笔记(十四)--大规模机器学习
- 斯坦福机器学习课学习笔记(一)-梯度下降
- 斯坦福机器学习公开课笔记(八)--机器学习系统设计
- 斯坦福机器学习公开课笔记--神经网络的学习
- 斯坦福机器学习公开课笔记(二)--多变量线性回归
- 斯坦福机器学习-week 2 学习笔记
- 机器学习-学习笔记2-监督学习中回归方程的建立以及预测
- 生成学习、高斯判别、朴素贝叶斯—斯坦福ML公开课笔记5
- 机器学习-斯坦福:学习笔记5-生成学习算法
- 【编程范式】斯坦福公开课-学习笔记1
- iOS菜鸟成长笔记(3)——斯坦福公开课学习(1)
- 斯坦福大学公开课 :机器学习课程笔记-[第1集] 机器学习的动机与应用
- 国际名校公开课 斯坦福大学公开课 :机器学习课程 机器学习的动机与应用 学习笔记
- 【机器学习-斯坦福】学习笔记2 - 监督学习应用与梯度下降