其实可以。
但当我们要创建成百上千个“弱分类器”的时候,决策树是最好的完成这个目标的模型。因为决策树中可供选择的超参数更多,很容易通过调整参数,得到另外一个“弱分类器”。而且,这些弱分类器是非线性的。这使得每一个子模型更有可能考虑的是样本的不同的侧面,产生更大的差异化。而且他线性算法,(比如SVM或者逻辑回归)都是基于线性假设,即使看到的样本不同,最终集成的结果依然基本是线性的。
所以,使用决策树是最好的选择。正因为如此,有随机森林这样的一个专门的算法,其实就是基于决策树的 bagging 或者 pasting 而已。
继续加油!:)