您的位置:首页 > 其它

机器学习-线性回归-多维度特征变量

2016-08-04 23:32 267 查看

1. 假设函数

之前的几篇文章里面,我们都只是介绍了单维特征变量的线性回归模型,比如预测房价的时候,我们只用了房子的面积这个维度。接下来我们会去研究多个维度的线性回归模型还是从预测房价这个例子入手,假设我们现在不只是单纯的考虑房子的面积,还考虑了卧室的数量、楼层、房子年限等三个维数得到了一个新的训练集

由于特征向量x的维度是多维,因此我们的表示发生了一些变化,如下图

因此,多个维度特征变量的线性回归的假设函数可定义为

还是假设X0 = 1

此时,函数h有n+1个参数θ0 ~ θn,同时特征向量x有n维,x1 ~ xn,特殊的是x0永远等于1不难发现函数h是特征向量x(x0,x1 ... xn) 和 参数θ的转置矩阵的乘积,证明如下

因此,函数h可以简化为如下式子

2. 代价函数

同理,扩展到多维特征变量之后,代价函数J,如下所示

我们的目的也是通过多轮的迭代,找到最佳的参数θ0 ~ θn,使得函数J(θ0,θ1,...θn)的值最小





内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: