您的位置:首页 > 其它

GBDT与XGBoost【基于负梯度拟合】的说明

2019-06-06 09:44 295 查看

为了不让自己在深度学习的网络里迷失…嗝~~,回顾了一下机器学习
相信大家看到集成学习的时候,类似于adaboost等思路还是挺清晰的,BDT里面的基于拟合残差思想也好理解,但是碰到gbdt时候有点蒙蔽【只针对小白,大佬绕行…】----这怎么就变成了根据损失函数的负梯度拟合呢,(编辑公式有点烦,我就把pad笔记拿上来)


说明:t是更新到第t次的意思,i是样本标记,为什么不写xgboost?,因为xgboost基础的原理就是二阶泰勒展开,可以自行推导
参考:李航统计学习方法,陈天奇PPT

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: