随机森林分类和adaboost分类方法的异同之处
2017-12-30 20:17
465 查看
随机森林和adaboost算法都可以用来分类,它们都是优秀的基于决策树的组合算法。相对于经典线性判别分析,其分类效果一般要好很多。
下说明这两种分类方法的相同和不同之处:
1,相同:二者都是bootsrap自助法选取样本。
2,相同:二者都是要训练很多棵决策树。
3,不同:adaboost后面树的训练,其在变量抽样选取的时候,对于上一棵树分错的样本,抽中的概率会加大。
4,不同:随机森林在训练每一棵树的时候,随机挑选了部分变量作为拆分变量,而不是所有的变量都去作为拆分变量。
5,不同:在预测新数据时,adaboost中所有的树加权投票来决定因变量的预测值,每棵树的权重和错误率有关;随机森林按照所有树中少数服从多数树的分类值来决定因变量的预测值。
下说明这两种分类方法的相同和不同之处:
1,相同:二者都是bootsrap自助法选取样本。
2,相同:二者都是要训练很多棵决策树。
3,不同:adaboost后面树的训练,其在变量抽样选取的时候,对于上一棵树分错的样本,抽中的概率会加大。
4,不同:随机森林在训练每一棵树的时候,随机挑选了部分变量作为拆分变量,而不是所有的变量都去作为拆分变量。
5,不同:在预测新数据时,adaboost中所有的树加权投票来决定因变量的预测值,每棵树的权重和错误率有关;随机森林按照所有树中少数服从多数树的分类值来决定因变量的预测值。
相关文章推荐
- 随机森林,GBDT,Adaboost原理及python实现
- 组合分类方法——装袋(bagging);提升(boosting)和AdaBoost;随机森林
- 随机投影森林-一种近似最近邻方法(ANN)
- 使用scikit-learn的随机森林对西瓜进行分类
- “OpenCV ERROR: Insufficient memory”解决方法(如:用随机森林来进行预测样本过大时报错解决方法)
- 《统计学习》笔记(1)-- 提升方法Adaboost
- 组合方法(ensemble method) 与adaboost提升方法
- 提升方法AdaBoost
- 【Kaggle】用随机森林分类算法解决Biologial Response问题
- 集成方法之AdaBoost
- adaboost xgboost gbdt 三个boosting方法整理
- 监督算法大比拼之BP、SVM、adaboost非线性多分类实验
- 【机器学习算法模型】分类算法——AdaBoost
- AdaBoost分类算法小结
- 随机森林对鸢尾花数据的两特征组合的分类结果
- 基于Boost方法的人脸检测(4):弱分类器生成、强分类器生成(AdaBoost)
- how to draw Opencv face detection Adaboost ROC/PR (绘制方法)
- OpenCV3 SVM ANN Adaboost KNN 随机森林等机器学习方法对OCR分类
- 【机器学习实战】第7章 集成方法 随机森林(RandomForest)和 Adaboost