在这一章,我们学习了集成学习。集成学习算法是机器学习算法比赛上经常使用的一类算法。与之相应的,我们通常会使用 XGBoost 框架来建立集成学习的模型。
在这个课程中,我们主要学习了 sklearn 的使用方式。其实,很多机器学习框架的使用方式,整体是大同小异的。比如,对于 XGBoost 框架的使用,官方文档的入门代码是这样的。大家看一看,是不是不需要任何解释,大家也能看懂这个过程大致在做什么?
import xgboost as xgb
# read in data
dtrain = xgb.DMatrix('demo/data/agaricus.txt.train')
dtest = xgb.DMatrix('demo/data/agaricus.txt.test')
# specify parameters via map
param = {'max_depth':2, 'eta':1, 'objective':'binary:logistic' }
num_round = 2
bst = xgb.train(param, dtrain, num_round)
# make prediction
preds = bst.predict(dtest)
在这里,希望同学们能够探索一下 XGBoost 的使用方式。网上其实也有很多教程,大家可以进行搜索学习。在学习完这个课程以后,相信大家已经对机器学习有了基本的认识,对于网上的很多机器学习相关的资料,都能够自学了:)
大家可以试验一下,使用 XGboost 进行回归任务或者分类任务,试试效果是怎样的?分享一下你的实验结果?
XGBoost 的官方网址:https://xgboost.ai/
大家加油!:)