机器学习第三篇(stanford大学公开课学习笔记) —logistic regression 和softmax regression
2014-08-03 20:52
357 查看
stanford机器学习公开课视频,讲师
Andrew Ng:http://v.163.com/special/opencourse/machinelearning.html
一、GLM and Expoential Family(广义线性模型和指数族)
前面谈到的回归模型中,我们假设y服从高斯分布,而在分类模型中,y被认为服从伯努利分布。从内在来看,这些模型都是一种更广义模型的特例,这种更广义模型被称为Generalized Linear Models(广义线性模型)。为了计算这种广义线性模型,我们定义一类函数分布称为指数族,函数y的概率分布形式由以下函数式定义:
对于伯努利分布,我们将其写成以下形式:
从上式可以看出,伯努利分布属于指数族;同理可以证明,当y服从高斯分布时,也属于指数族。为了计算广义线性模型,我们作出以下几个假设:
1、给定输入x和参数W,输出y服从指数族分布;
2、实际输出h(x)=E(y|x);
3、n=WX
二、logistic regression
三、softmax regression
logistic regression 只能作出0或1的二值输出,而对于更多的分类logistic regression 无法胜任。这里提出softmax regression, 对输出k个值进行预测。
总结:以前只知道logistic regression 和softmax regression 的用法,但是不理解其原理和来历,如今看到这里,就感觉顿时豁然开朗了!
Andrew Ng:http://v.163.com/special/opencourse/machinelearning.html
一、GLM and Expoential Family(广义线性模型和指数族)
前面谈到的回归模型中,我们假设y服从高斯分布,而在分类模型中,y被认为服从伯努利分布。从内在来看,这些模型都是一种更广义模型的特例,这种更广义模型被称为Generalized Linear Models(广义线性模型)。为了计算这种广义线性模型,我们定义一类函数分布称为指数族,函数y的概率分布形式由以下函数式定义:
对于伯努利分布,我们将其写成以下形式:
从上式可以看出,伯努利分布属于指数族;同理可以证明,当y服从高斯分布时,也属于指数族。为了计算广义线性模型,我们作出以下几个假设:
1、给定输入x和参数W,输出y服从指数族分布;
2、实际输出h(x)=E(y|x);
3、n=WX
二、logistic regression
三、softmax regression
logistic regression 只能作出0或1的二值输出,而对于更多的分类logistic regression 无法胜任。这里提出softmax regression, 对输出k个值进行预测。
总结:以前只知道logistic regression 和softmax regression 的用法,但是不理解其原理和来历,如今看到这里,就感觉顿时豁然开朗了!
相关文章推荐
- 学习笔记TF024:TensorFlow实现Softmax Regression(回归)识别手写数字
- 学习笔记2 Supervised Learning and Optimization 之 Softmax Regression
- ufldl学习笔记与编程作业:Softmax Regression(softmax回归)
- 深度学习 Deep Learning UFLDL 最新Tutorial 学习笔记 5:Softmax Regression
- 机器学习第二篇(stanford大学公开课学习笔记) —局部加权回归
- UFLDL学习笔记3(Softmax Regression)
- ufldl学习笔记和编程作业:Softmax Regression(softmax回报)
- 机器学习第一篇(stanford大学公开课学习笔记) —机器学习的概念和梯度下降
- UFLDL学习笔记3——Softmax Regression
- 机器学习第五篇(stanford大学公开课学习笔记) —支持向量机(Support Vector Machine)
- 深度学习笔记三:Softmax Regression
- 深度学习 Deep Learning UFLDL 最新Tutorial 学习笔记 5:Softmax Regression
- 机器学习第四篇(stanford大学公开课学习笔记) —生成型学习算法之高斯判别分析模型和朴素贝叶斯方法
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——2、监督学习:Regression and Classification
- 斯坦福机器学习公开课笔记(十四)--大规模机器学习
- Coursera公开课笔记: 斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”
- 公开课机器学习笔记(7)Softmax回归模型
- 斯坦福机器学习公开课学习笔记(3)—拟合问题以及局部权重回归、逻辑回归
- Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”
- Deep Learning 学习随记(三)续 Softmax regression练习