Andrew Ng 机器学习笔记 05 :特征的选择和多项式回归
2018-03-17 14:45
459 查看
特征的选择
以预测房价为例,假设你有两个特征,分别是房子临街的宽度(frontage)和垂直宽度(depth),你可能会建立一个像这样的线性回归模型:hθ(x)=θ0+θ1×frontage+θ2×depthhθ(x)=θ0+θ1×frontage+θ2×depth
实际上,可以创造一个新的特征xx,它是临街宽度与纵深的乘积:
x=frontage×depthx=frontage×depth
hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x
有时通过定义新的特征,你会得到一个更好的模型。
多项式回归
假设有这样一个住房价格的数据集:![](http://studyai.site/img/16_07_29/020.png)
为了拟合它,可能会有多个不同的模型供选择。因为直线似乎并不能很好地拟合这些数据,因此也许你会想到用这样的二次模型去拟合数据:
θ0+θ1x+θ2x2θ0+θ1x+θ2x2
但是二次函数最终会降回来,而我们并不认为房子的价格在高到一定程度后会下降回来,因此也许我们可能转而选择使用一个三次函数:
θ0+θ1x+θ2x2+θ3x3θ0+θ1x+θ2x2+θ3x3
我们用这个三次函数进行拟合,我们可能得到这样的模型(绿线部分)
![](http://studyai.site/img/16_07_29/022.png)
做一个简单的修改来实现它:
hθ(x)=θ0+θ1x+θ2x2+θ3x3hθ(x)=θ0+θ1x+θ2x2+θ3x3
=θ0+θ1(size)+θ2(size)2+θ3(size)3=θ0+θ1(size)+θ2(size)2+θ3(size)3
x1=(size)x1=(size)
x2=(size)2x2=(size)2
x3=(size)3x3=(size)3
x1,x2,x3x1,x2,x3这三个特征的范围有很大的不同,因此,如果要使用梯度下降法,应用特征值的归一化是非常重要的,这样才能将他们的值的范围变得具有可比性。
除了建立一个三次模型以外,另外一个合理的选择的例子是:
hθ(x)=θ0+θ1(size)+θ2(size)−−−−−√hθ(x)=θ0+θ1(size)+θ2(size)
这种函数曲线看起来趋势是上升的,但慢慢变得平缓一些,而且永远不会下降回来:
![](http://studyai.site/img/16_07_29/023.png)
相关文章推荐
- 机器学习笔记之特征及多项式回归
- 斯坦福大学机器学习笔记——特征和多项式回归以及正规方程
- 斯坦福大学Andrew Ng - 机器学习笔记(2) -- 逻辑回归 & 正则化
- Andrew NG 机器学习 笔记-week3-逻辑回归
- 斯坦福大学公开课机器学习课程(Andrew Ng)十特征选择
- Andrew Ng 机器学习笔记 02 :线性回归与梯度下降
- Coursera 机器学习(by Andrew Ng)课程学习笔记 Week 3——逻辑回归、过拟合与正则化
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合
- (斯坦福机器学习课程笔记)多项式回归练习
- 机器学习笔记(八)——决策树模型的特征选择
- 特征选择与稀疏学习——《机器学习》笔记
- 线性回归-机器学习(machine learning)笔记(Andrew Ng)
- 斯坦福大学Andrew Ng - 机器学习笔记(4) -- 机器学习算法的选择与评估
- python机器学习库sklearn——数据归一化、标准化、特征选择、逻辑回归、贝叶斯分类器、KNN模型、支持向量机、参数优化
- Andrew NG 机器学习听课笔记(2)——过学习与欠学习,最小二乘的概率意义、logistic回归
- 机器学习 特征选择笔记 前言
- Coursera机器学习(Andrew Ng)笔记:回归与分类问题
- Andrew Ng机器学习笔记ex5 正则化的逻辑回归、偏差和方差
- 公开课机器学习笔记(17)学习理论二 VC维、ERM总结、模型选择、特征选择
- 【斯坦福---机器学习】复习笔记之特征选择