采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
Bagging中通过调整这两个参数可以实现样本和特征的随机性 但是随机森林中并没有max_sample这个参数,不太理解这样的话,每一个树看了多少个样本呢?至于特征,貌似一般都是用默认的“auto”吧
随机森林算法每棵决策树所见的样本个数是固定的,就是样本总数m。
这里的关键是,bagging classifier和random forest创建弱分类器的原理不同。由于决策树本身参数众多,通过这些参数,就可以很好的创建弱分类器;而bagging则通常是通过让每个分类器看到的样本少一些,来创造弱分类器(效果还不一定好)。回忆一下,我们之前学习的其他算法,比如SVM或者逻辑回归,基本没有什么超参数能让这些算法成为“弱分类器”:)
具体也可以参考这里:https://coding.imooc.com/learn/questiondetail/82199.html
max_features使用auto没毛病:)
继续加油!:)
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
3.1k 19
4.2k 17
3.6k 15
2.0k 15
1.9k 14
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号