您的位置:首页 > 其它

机器学习笔记-线性模型

2017-03-20 15:43 232 查看
  首先要知道线性模型的基本形式:
                                  


  其中X1,X2,...,Xn代表各个属性,而X1,X2,...,Xn的系数W1,W2,...,Wn代表属性值,其用矢量可以表示为
                                  


  线性回归

                   线性回归试图学得W1,W2,...,Wn和d的值,使f(x)尽可能接近真实值y,而线性回归中经常利用最小二乘法得到W1,W2,...,Wn和d的值。
                   利用最小二乘法求参数W1,W2,...,Wn,d:
                         
                          我们使均方误差最小化来求参数,即先表示出来
                                                                  


                          并使之最小化,即求
                                                           


                         
                          再分别对W1,W2,...,Wn,d偏导数,并令偏导数等于零,得到n+1个方程,可以求出W1,W2,...,Wn,d这n+1个变量的解。(其实这是在数学中比较常做的一个求极值的问题)
                          注意:在实际应用中,我们可能没有足够的样本去学习参数,这样就使得到的方程数少于变量的个数,由线性代数的知识可知,这种情况下我们可以得到多组最优解,至于选择那组解,可由学习算法的归纳偏好而定,常见的是引入正则化项。
       
         有时候输出y是成非线性关系变化的,为了得到线性关系,可以令

表示y。例如y随着x的变化呈指数型变化,则令

,那么


,从而得到输出x和输入y的线性关系方程。这里g()=ln(),称

为广义线性模型。

         知识回忆:与最小二乘法使最小均方误差函数最小而求得参数不同,最大似然估计法是根据使抽取的样本发生概率最大化,从而求出参数。

         

        reference:机器学习-周志华   清华大学出版社

                                       
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: