采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
Bagging中通过调整这两个参数可以实现样本和特征的随机性 但是随机森林中并没有max_sample这个参数,不太理解这样的话,每一个树看了多少个样本呢?至于特征,貌似一般都是用默认的“auto”吧
随机森林算法每棵决策树所见的样本个数是固定的,就是样本总数m。
这里的关键是,bagging classifier和random forest创建弱分类器的原理不同。由于决策树本身参数众多,通过这些参数,就可以很好的创建弱分类器;而bagging则通常是通过让每个分类器看到的样本少一些,来创造弱分类器(效果还不一定好)。回忆一下,我们之前学习的其他算法,比如SVM或者逻辑回归,基本没有什么超参数能让这些算法成为“弱分类器”:)
具体也可以参考这里:https://coding.imooc.com/learn/questiondetail/82199.html
max_features使用auto没毛病:)
继续加油!:)
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.5k 19
3.4k 17
2.9k 15
1.6k 15
1.4k 14