机器学习-线性回归-多维度特征变量
2016-08-04 23:32
267 查看
1. 假设函数
之前的几篇文章里面,我们都只是介绍了单维特征变量的线性回归模型,比如预测房价的时候,我们只用了房子的面积这个维度。接下来我们会去研究多个维度的线性回归模型还是从预测房价这个例子入手,假设我们现在不只是单纯的考虑房子的面积,还考虑了卧室的数量、楼层、房子年限等三个维数得到了一个新的训练集由于特征向量x的维度是多维,因此我们的表示发生了一些变化,如下图
因此,多个维度特征变量的线性回归的假设函数可定义为
还是假设X0 = 1
此时,函数h有n+1个参数θ0 ~ θn,同时特征向量x有n维,x1 ~ xn,特殊的是x0永远等于1不难发现函数h是特征向量x(x0,x1 ... xn) 和 参数θ的转置矩阵的乘积,证明如下
因此,函数h可以简化为如下式子
2. 代价函数
同理,扩展到多维特征变量之后,代价函数J,如下所示我们的目的也是通过多轮的迭代,找到最佳的参数θ0 ~ θn,使得函数J(θ0,θ1,...θn)的值最小
相关文章推荐
- 【Stanford|斯坦福-机器学习:线性回归-单特征梯度下降+动态图】python3实现
- 吴恩达机器学习--单变量线性回归【学习笔记】
- 机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)
- 机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程
- 机器学习常见的几个误区--逻辑回归的变量之间如果线性相关
- 机器学习门户网站——单变量线性回归
- 机器学习(3)——多变量线性回归
- 斯坦福大学机器学习课程线性回归编程作业二(多变量2)
- 机器学习入门(6)--(单变量)梯度下降与线性回归
- 机器学习常见的几个误区--逻辑回归的变量之间如果线性相关
- Coursera2014 机器学习第一周 单变量线性回归
- 线性回归的补充与变量归一化
- 机器学习——线性模型之回归与分类
- 机器学习之线性回归 Linear Regression(二)Python实现
- 机器学习之线性回归-AndrewNg学习笔记
- 机器学习实战之线性回归+局部加权线性回归
- 线性回归-机器学习(machine learning)笔记(Andrew Ng)
- 机器学习笔记:对线性回归,logistic回归和一般回归的认识
- 【机器学习】线性回归的梯度下降法
- [机器学习]机器学习笔记整理12-线性回归概念理解