关于 XGBoost
10.4k
等32人参与

在这一章,我们学习了集成学习。集成学习算法是机器学习算法比赛上经常使用的一类算法。与之相应的,我们通常会使用 XGBoost 框架来建立集成学习的模型。

在这个课程中,我们主要学习了 sklearn 的使用方式。其实,很多机器学习框架的使用方式,整体是大同小异的。比如,对于 XGBoost 框架的使用,官方文档的入门代码是这样的。大家看一看,是不是不需要任何解释,大家也能看懂这个过程大致在做什么?

import xgboost as xgb

# read in data
dtrain = xgb.DMatrix('demo/data/agaricus.txt.train')
dtest = xgb.DMatrix('demo/data/agaricus.txt.test')

# specify parameters via map
param = {'max_depth':2, 'eta':1, 'objective':'binary:logistic' }
num_round = 2

bst = xgb.train(param, dtrain, num_round)

# make prediction
preds = bst.predict(dtest)

在这里,希望同学们能够探索一下 XGBoost 的使用方式。网上其实也有很多教程,大家可以进行搜索学习。在学习完这个课程以后,相信大家已经对机器学习有了基本的认识,对于网上的很多机器学习相关的资料,都能够自学了:)

大家可以试验一下,使用 XGboost 进行回归任务或者分类任务,试试效果是怎样的?分享一下你的实验结果?

XGBoost 的官方网址:https://xgboost.ai/

大家加油!:)

我的作业
去发布

登录后即可发布作业,立即

全部作业

数据加载中...

意见反馈 帮助中心 APP下载
官方微信