采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
为什么是3而不是4或者2或者其他? 这是一个超参数还是例子中刚好如此(刚好有2个红点与决策边界的距离相等)? 如果决策边界稍微为移动/转动一下,支撑向量又会变成多少个呢?
是我举的例子刚好如此。
在SVM中,不是决策边界决定支撑向量的关系。所以没有决策边界稍微移动一下这样的假设。SVM中就是寻找这样的一个决策边界,使得两类样本数据中离这个决策边界最近的数据点距离最远。这些离决策边界最近的数据点就是支撑向量。所以对于给定的数据集,决策边界和支撑向量都是固定。当然这是hard-margin的情形,在soft-margin中引入了超参数,继续学习就会讲到:)
非常感谢!
老师好,我这里有个疑问。 SVM中,是寻找这样的一个决策边界,使得两类样本数据中离这个决策边界最近的数据点距离最远。 这样的话,一类数据离决策边界距离最近的点的距离为d1,另外一类数据离决策边界距离最近的点的距离为为d2。为什么这里的 d1 = d2 ? 所以我的疑问是,那为什么在视频中,最近的两类样本与决策边界的距离刚好都为d呢?
因为我们就是以此为条件,求出的这个决策边界啊:)
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.5k 19
3.5k 17
2.9k 15
1.6k 15
1.4k 14