查看原文
其他

课程|横扫Kaggle大赛的XGBoost ,要怎么入门?

2017-06-06 AI科技大本营


AI100学院特请在机器学习领域深耕10余年的中科院副教授冒老师带来干货课程——《XGBoost从基础到实战》,从XGBoost的原理讲解到代码实战,一步步带领大家从XGBoost的安装到一行行Python代码实现各类算法任务,不需要有很强的数学基础,直接从实战入手。通过4节XGBoost的专题课程,大家可以零基础理解XGBoost原理,掌握XGBoost调参,并能融会贯通地学习其他机器学习算法,学习如何用机器学习算法解决实际问题。如果你足够优秀,还能进击Kaggle竞赛哦。


本次课程共4课时,6月10日开课,以下是课程大纲,感兴趣的同学可点击原文报名。



课程大纲


第一讲:初识XGBoost


1 、XGBoost简介

  • Gradient Boosting简介

  • XGBoost的特别之处


2 、XGBoost的优势

  • 速度

  • 性能


3 、与XGBoost的第一次亲密接触

  • 数据科学任务的一般处理流程

  • XGBoost独立使用

  • 与scikit-learn一起使用(学习率、交叉验证)


4、案例:XGBoost安装包自带数据集(蘑菇分类)


第二讲:暂别XGBoost


1、监督学习

  • 模型

  • 参数

  • 目标函数(损失、正则、过拟合/欠拟合)

  • 优化:梯度下降、常用损失函数的梯度推导


2 、分类回归树

  • 模型/参数/目标函数/优化(分裂与剪枝)


3 、随机森林

  • Bagging/行、列随机采样


4 、案例:Kaggle蘑菇分类任务


第三讲:重回XGBoost


1 、Boosting

  • 基本思想

  • AdaBoost


2 、Gradient Boosting

  • 基本框架

  • L2Boosting/AdaBoost


3 、XGBoost

  • 性能改进:规范的正则、损失函数二阶近似、建树&剪枝、缺失值处理

  • 速度改进:稀疏特征、并行、Cache、分布式


4、案例:Kaggle的Allstate Instance Claim任务


第四讲:XGBoost实战


1 、特征工程

  • 常规数据检查流程

  • 特征类型变换编码

  • 特征工程一般原则


2 、XGBoost参数调优

  • 评估准则

  • 复习交叉验证


3 、XGBoost其他高级应用

  • 多线程,并行


4 、案例:Kaggle的Two Sigma Connect:Rental Listing Inquiries任务


联系小助手领取福利

转发此文或文中海报至朋友圈后,扫描下方二维码添加“AI100小助手”,将截图发给小助手,即可领取课程优惠券。邀请朋友购买课程的小伙伴也请联系小助手领取优惠券。




联系方式        学院小秘

QQ:3560587749

微信号:superaihelper

邮箱:support@ai100.ai



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存