采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
:svm支撑向量寻找决策边界的时候,是否会很大程度地受异常点的影响
不看上面的图1直接看图2,其实这样SVM找的决策边界还是很合理的,不过这是数据量小的情况,假设左边7个绿色的球是700个,7个红色球是700个,只因为1个异常数据点的影响就极大地改变了决策图像,影响了后续泛化能力,这应该并不合理,这是我想象中的情况,真实运行时svm是这样吗?
是这样的呀。印象里课程中介绍了:SVM 的 hard margin 对异常点非常敏感;soft margin 将缓解这个问题。
当然,soft margin 解决的一个更重要的问题是:不是任何数据都是线性可分的。hard margin 只有在线性可分的情况下才适用。这两个问题(线性可分和 outlier)本身也存在一定的 overlap:)
继续加油!:)
尴尬了,刚看到(11-3 Soft Margin SVM)就知道我白问了,哈哈哈,前两节看了半天才明白
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.5k 19
3.5k 17
2.9k 15
1.6k 15
1.4k 14