您的位置:首页 > 运维架构 > Apache

【Scikit-Learn 中文文档】内核岭回归 - 监督学习 - 用户指南 | ApacheCN

2017-11-21 14:35 465 查看
中文文档: http://sklearn.apachecn.org/cn/0.19.0/tutorial/basic/tutorial.html

英文文档: http://sklearn.apachecn.org/en/0.19.0/tutorial/basic/tutorial.html

官方文档: http://scikit-learn.org/0.19/

GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个
Star,我们一直在努力)

贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者

关于我们: http://www.apachecn.org/organization/209.html


1.3. 内核岭回归

Kernel ridge regression (KRR) (内核岭回归)[M2012]_ 由 使用内核方法的 :ref:`ridge_regression`(岭回归)(使用
l2 正则化的最小二乘法)所组成。因此,它所学习到的在空间中不同的线性函数是由不同的内核和数据所导致的。对于非线性的内核,它与原始空间中的非线性函数相对应。

由 
KernelRidge
 学习的模型的形式与支持向量回归( 
SVR
 )
是一样的。但是他们使用不同的损失函数:内核岭回归(KRR)使用 squared error loss (平方误差损失函数)而 support vector regression (支持向量回归)(SVR)使用 

-insensitive
loss ( ε-不敏感损失 ),两者都使用 l2 regularization (l2 正则化)。与 
SVR
 相反,拟合 
KernelRidge
 可以以
closed-form (封闭形式)完成,对于中型数据集通常更快。另一方面,学习的模型是非稀疏的,因此比 SVR 慢, 在预测时间,SVR 学习了:math:epsilon > 0 的稀疏模型。

下图比较了人造数据集上的 
KernelRidge
 和 
SVR
 的区别,它由一个正弦目标函数和每五个数据点产生一个强噪声组成。图中分别绘制了由 
KernelRidge
 和 
SVR
 学习到的回归曲线。两者都使用网格搜索优化了
RBF 内核的 complexity/regularization (复杂性/正则化)和 bandwidth (带宽)。它们的 learned functions (学习函数)非常相似;但是,拟合 
KernelRidge
 大约比拟合 
SVR
 快七倍(都使用
grid-search ( 网格搜索 ) )。然而,由于 SVR 只学习了一个稀疏模型,所以 SVR 预测 10 万个目标值比使用 KernelRidge 快三倍以上。SVR 只使用了百分之三十的数据点做为支撑向量。





下图显示不同大小训练集的 
KernelRidge
 和 
SVR
 的
fitting (拟合)和 prediction (预测)时间。 对于中型训练集(小于 1000 个样本),拟合 
KernelRidge
 比 
SVR
 快;
然而,对于更大的训练集 
SVR
 通常更好。 关于预测时间,由于学习的稀疏解,
SVR
 对于所有不同大小的训练集都比 
KernelRidge
 快。
注意,稀疏度和预测时间取决于 
SVR
 的参数 

 和 

 ; 

 将对应于密集模型。





参考:
[M2012]“Machine Learning: A Probabilistic Perspective” Murphy, K. P. - chapter 14.4.3, pp. 492-493, The MIT Press, 2012
中文文档: http://sklearn.apachecn.org/cn/0.19.0/tutorial/basic/tutorial.html

英文文档: http://sklearn.apachecn.org/en/0.19.0/tutorial/basic/tutorial.html

官方文档: http://scikit-learn.org/0.19/

GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个
Star,我们一直在努力)

贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者

关于我们: http://www.apachecn.org/organization/209.html

有兴趣的大佬们也可以和我们一起来维护,持续更新中 。。。

机器学习交流群: 629470233
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐