采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,不理解删除了样本后,为什么决策边界会发生变化?删除那个样本后,竖直的决策边界不也可以达到信息熵最小的要求吗?
决策树中信息熵的计算,和所有的数据点都相关。有一个数据点有变化,都很有可能会影响信息熵的计算结果,进而影响决策边界(非参数学习都是对数据非常敏感的,回忆一下,我们讲knn的时候也提过这一点。)
删除一个样本后,很有可能在竖直方向不再是信息熵最小的决策边界方向,而某个水平方向才是。
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
3.2k 19
4.2k 17
3.6k 15
2.0k 15
1.9k 14
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号