朴素贝叶斯 VS 逻辑回归
2015-02-05 10:09
281 查看
总结起来,有以下几点不同:
(1) Naive Bayes是一个生成模型,在计算P(y|x)之前,先要从训练数据中计算P(x|y)和P(y)的概率,从而利用贝叶斯公式计算P(y|x)。
Logistic Regression是一个判别模型,它通过在训练数据集上最大化判别函数P(y|x)学习得到,不需要知道P(x|y)和P(y)。
(2) Naive Bayes是建立在条件独立假设基础之上的,设特征X含有n个特征属性(X1,X2,...Xn),那么在给定Y的情况下,X1,X2,...Xn是条件独立的。
如果要判定X属于哪一类,可以这样计算:
Logistic Regression的限制则要宽松很多,如果数据满徐条件独立假设,Logistic Regression能够取得非常好的效果;当数据不满度条件独立假设时,Logistic Regression仍然能够通过调整参数让模型最大化的符合数据的分布,从而训练得到在现有数据集下的一个最优模型。
(3) 当数据集比较小的时候,应该选用Naive Bayes,为了能够取得很好的效果,数据的需求量为O(log n)
当数据集比较大的时候,应该选用Logistic Regression,为了能够取得很好的效果,数据的需求量为O( n)
Naive Bayes运用了比较严格的条件独立假设,为了计算P(y|x),我们可以利用统计的方法统计数据集中P(x|y)和P(y)出现的次数,从而求得P(x|y)和P(y)。因而其所需的数据量要小一些,为O(log n).
Logistic Regression在计算时,是在整个参数空间进行线性搜索的,需要的数据集就更大,为O( n)
另外解释一下线性分类器的概念:
参考:
(1) GENERATIVE AND DISCRIMINATIVE CLASSIFIERS:NAIVE BAYES AND LOGISTIC REGRESSION
(2) Logistic Regression and Naive Bayes (Rob)
相关文章推荐
- 朴素贝叶斯 VS 逻辑回归 区别
- 朴素贝叶斯 VS 逻辑回归 区别
- 朴素贝叶斯 VS 逻辑回归 区别
- 朴素贝叶斯 VS 逻辑回归 区别
- 判别式分类器vs生成式分类器:逻辑回归和朴素贝叶斯的比较
- 机器学习(三):逻辑回归应用_手写数字识别_OneVsAll_Python
- sklearn分类算法(逻辑回归、朴素贝叶斯、K近邻、支持向量机 、决策树、随机森林 )的使用
- 生成式和判别式分类器:朴素贝叶斯与逻辑回归
- 机器学习—高斯判别分析、朴素贝叶斯和逻辑回归
- 逻辑回归 vs 决策树 vs 支持向量机(II)
- 机器学习(Machine Learning)心得体会(3)逻辑回归&神经网络Exercise 3:One-vs-all & Neural Networks
- 逻辑回归与朴素贝叶斯的区别
- 逻辑回归_手写数字识别_OneVsAll
- 机器学习:一些常见的监督型学习方法(K近邻、决策树、朴素贝叶斯、逻辑回归)
- 逻辑回归 vs 决策树 vs 支持向量机(I)
- 朴素贝叶斯与逻辑回归的区别
- 逻辑回归 vs 决策树 vs 支持向量机(II)
- 逻辑回归 和 朴素贝叶斯 两者间的区别
- 逻辑回归和朴素贝叶斯算法实现二值分类(matlab代码)
- 利用TensorFlow实现多元逻辑回归