请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Bagging,Boosting二者之间的区别

老师好,两者的区别是否如下:

1)样本选择上:

	Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

	Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。
	          而权值是根据上一轮的分类结果进行调整。

2)样例权重:

	Bagging:使用均匀取样,每个样例的权重相等

	Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3)预测函数:

	Bagging:所有预测函数的权重相等。

	Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4)并行计算:

	Bagging:各个预测函数可以并行生成

	Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

正在回答 回答被采纳积分+3

2回答

liuyubobobo 2020-04-28 03:46:35

总结的挺好。


整体上,bagging 就是一个横向的“民主投票”,而 boosting 是一个纵向的逐渐完善的过程。


另外,你说的 Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。不很准确。boosting 的每个分类器的权重是一样的。区别是看待样本的视角不一样了。adaboosting 会让上一轮分类错误的样本有更高的权重;而 gradient boosting 则每轮看待的样本是正确值和预测值的差,即针对误差做训练。


继续加油!:)

0 回复 有任何疑惑可以回复我~
  • 提问者 lemonlxn #1
    好的,谢谢老师。我把这里的boosting 只当做adaboost 了,没有考虑到GBDT
    回复 有任何疑惑可以回复我~ 2020-04-28 10:02:03
GoFromZero 2020-04-27 23:21:01

我觉的总结的差不多 感觉没毛病

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信