k折交叉验证
2014-12-18 13:03
183 查看
在做机器学习这方面研究的时候,例如PCR和PLS等算法时常会遇到最佳潜变量的选取,神经元个数的选取;这些参数的选取对模型的质量产生极大的影响。如果人为选取,这样是十分不可靠的也是不现实的。进行交叉验证是一个优秀模型形成必不可少的过程。
交叉验证的目的是为了得到更为稳健可靠的模型。
交叉验证的方法有许多种,但是最常用的是:<1>留一交叉验证<2>k折交叉验证
今天说一下何谓k折交叉验证(k-fold cross Validation):
K折交叉验证,将初始采样(样本集X,Y)分割成K份,一份被保留作为验证模型的数据(test set),其他K-1份用来训练(train set)。交叉验证重复K次,每份验证一次,平均K次的结果或者使用其它结合方式,最终得到一个单一估测。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次,10折交叉验证是最常用的。(切记每次作为验证模型的数据是不同的)。
下面是如何用Python代码实现将样本分成k份且输出:
其输出结果如下:
交叉验证的目的是为了得到更为稳健可靠的模型。
交叉验证的方法有许多种,但是最常用的是:<1>留一交叉验证<2>k折交叉验证
今天说一下何谓k折交叉验证(k-fold cross Validation):
K折交叉验证,将初始采样(样本集X,Y)分割成K份,一份被保留作为验证模型的数据(test set),其他K-1份用来训练(train set)。交叉验证重复K次,每份验证一次,平均K次的结果或者使用其它结合方式,最终得到一个单一估测。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次,10折交叉验证是最常用的。(切记每次作为验证模型的数据是不同的)。
下面是如何用Python代码实现将样本分成k份且输出:
其输出结果如下:
相关文章推荐
- K折交叉验证中k值大小和bias、variance的关系
- 交叉验证 Cross validation
- (转)交叉验证方法思想简介
- 【Scikit-Learn 中文文档】交叉验证 - 模型选择和评估 - 用户指南 | ApacheCN
- 交叉验证(Cross Validation)方法思想简介
- 【Scikit-Learn 中文文档】交叉验证 - 模型选择和评估 - 用户指南 | ApacheCN
- 【scikit-learn】交叉验证及其用于参数选择、模型选择、特征选择的例子
- 【机器学习】交叉验证和K-折交叉验证cross-validation and k-fold cross-validation
- 机器学习--交叉验证
- 机器学习 python 交叉验证实例
- k-折交叉验证(k-fold CrossValidation)
- sklearn交叉验证2-【老鱼学sklearn】
- 【机器学习基础概念】过拟合,交叉验证,VC维
- Python下的数据处理和机器学习,对数据在线及本地获取、解析、预处理和训练、预测、交叉验证、可视化
- K-fold 交叉验证
- Nsight Eclipse的opencv+cuda的交叉编译,在TX2已验证可行
- 机器学习中的交叉验证(cross-validation)
- 创建朴素贝叶斯分类器、交叉验证
- 机器学习--交叉验证函数
- 机器学习中的交叉验证