Nani_xiao的机器学习与总结:Andrew Ng.机器学习(四) :牛顿方法
2015-04-17 19:20
190 查看
重温概率论的基础
批梯度上升规则和随机梯度上升规则 拟合出logistic回归模型。
利用牛顿方法来进行模型拟合。
牛顿法也叫切线法。
![](https://img-blog.csdn.net/20150417191817444?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveGlhb19seGw=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
![](https://img-blog.csdn.net/20150417191835524?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveGlhb19seGw=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
![](https://img-blog.csdn.net/20150417191919220?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveGlhb19seGw=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
为了使牛顿算法有效,需要将f满足某些条件,这些条件相当复杂。通常如何初始化x不是个大问题,一般讲f(x) = 0,这些算法通常不会考虑收敛性的问题,一般,这些算法都是收敛的,但收敛速度会有很大差别。牛顿算法是一个收敛速度很快的算法,收敛速度可以理解为二次收敛。牛顿方法的每一次迭代,都会使你正在逼近解的有效数字的数目加倍,不考虑常量因子。
其他知识点:Hessian矩阵
基于最小二乘的线性回归,Logistic回归都属于广义线性回归
指数分布族 伯努利分布、高斯分布
![](https://img-blog.csdn.net/20150417192555015?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveGlhb19seGw=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
批梯度上升规则和随机梯度上升规则 拟合出logistic回归模型。
利用牛顿方法来进行模型拟合。
牛顿法也叫切线法。
为了使牛顿算法有效,需要将f满足某些条件,这些条件相当复杂。通常如何初始化x不是个大问题,一般讲f(x) = 0,这些算法通常不会考虑收敛性的问题,一般,这些算法都是收敛的,但收敛速度会有很大差别。牛顿算法是一个收敛速度很快的算法,收敛速度可以理解为二次收敛。牛顿方法的每一次迭代,都会使你正在逼近解的有效数字的数目加倍,不考虑常量因子。
其他知识点:Hessian矩阵
基于最小二乘的线性回归,Logistic回归都属于广义线性回归
指数分布族 伯努利分布、高斯分布
Logistic回归
相关文章推荐
- Nani_xiao的机器学习与总结:Andrew Ng.机器学习(一) :贝叶斯定理
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之九(第5章 总结)
- 机器学习、深度学习中欠拟合的解决方法总结
- 机器学习第四课--牛顿方法
- 机器学习问题方法总结
- 机器学习问题方法总结
- 机器学习问题方法总结
- 机器学习问题方法总结
- 机器学习问题方法总结
- 机器学习笔记之牛顿方法
- 【转】机器学习问题方法总结
- 【机器学习-斯坦福】学习笔记4 - 牛顿方法
- 机器学习问题方法总结
- 机器学习问题方法总结
- Atitit 切入一个领域的方法总结 attilax这里,机器学习为例子
- 深度学习和机器学习最优化方法总结
- 机器学习-->特征降维方法总结
- 机器学习、深度学习、强化学习参数调节方法与总结
- 机器学习的几个方法总结
- 斯坦福《机器学习》Lesson4感想--1、Logistic回归中的牛顿方法