您的位置:首页 > 其它

【机器学习-西瓜书】三、线性回归;对数线性回归

2017-08-24 10:38 288 查看
墙裂推荐阅读:y的衍生物

关键词:最小二乘法;正则化;对数线性回归; y的衍生物

3.1 基本形式

假设样本x有d个属性,线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即f(x)=w1x1+w2x2+⋅⋯+wdxd+b ,向量形式 f(x)=wTx+b

3.2 线性回归

关键词:无序属性连续化。

对离散属性,若属性值之间存在“序”(order)关系,可通过连续化将其转化为连续值,例如二值属性身高的取值,“高”“矮”可和转化为{1.0 , 0}。 若属性值之间不存在序的关系,例如属性“瓜类”的取值为西瓜,南瓜,冬瓜,则可转化为(0,0,1),(0,1,0),(1,0,0)。

关键词:最小二乘法(least square method)。

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。

关键词: 正则化(regularization)项。

假设解一个线性方程组,当方程数大于自由变量数时,是没有解的。反过来,当方程数小于自由变量数的时候,解就有很多个了。往往,我们会碰到这种情况,参数多,“方程”少的情况,那么有很多个w(权值向量)都能使均方误差最小,那么该选哪一个呢? 这就涉及到 归纳偏好问题了,常见的做法是引入正则化项。

关键词:对数线性回归(log-linear regression);y的衍生物

把线性回归模型简写为:f(x)=wTx+b ,当我们希望线性模型的预测值逼近真实标记y,这样就是线性模型。那可否令模型的预测值毕竟y的衍生物呢? 作者的这一描述实在太妙了!y的衍生物,通俗易懂! 假设y的衍生物是 y的对数即lny,那么就可以得到对数线性回归模型:lny=wTx+b , 也就是让模型 去逼近 lny,而不是y。也可以对lny=wTx+b 做一下变换就变成了 y=ewTx+b,也可以理解为让 ewTx+b 去逼近y。形式上还是线性回归的,但实质上已是在求取输入空间到输出空间的非线性函数映射。如图:



来思考一个问题

想从线性模型出发,去扩展线性模型,就是让线性模型f(x)=wTx+b去拟合y的衍生物,那么我们常说的逻辑回归(对数几率回归)是怎么从线性模型演变而来的呢?是让wTx+b去拟合哪一种“y的衍生物” 什么呢?这个可以思考思考后,请看下篇:逻辑回归
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: