您的位置:首页 > 其它

学习笔记(08):第三章:集成机器学习-XGBoost原理

2020-03-09 23:02 99 查看

立即学习:https://edu.csdn.net/course/play/10582/236121?utm_source=blogtoedu

XGBoost

:eXtreme Gradient Boosting 

dmlc 

可自定义损失函数:采用二阶Taylor展开金丝损失函数

规范化正则项

 

Recall:回归树定义:把树拆分成结构部分q,叶子部分w

 

贪心算法建树

从深度为0的树开始

对树的每个叶子节点尝试增加一个分裂点:

 

Recall增益分裂

增益可能为负,引入新叶子有复杂度惩罚

提前终止:

过后剪枝

  • 点赞
  • 收藏
  • 分享
  • 文章举报
goodluckyangH 发布了10 篇原创文章 · 获赞 0 · 访问量 291 私信 关注
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: