在消化波波老师这段话的时候,关于数据升维之后,将更可能线性可分这一点我有了比较深刻的认识,但在我深入思考后对于决策边界我产生了很多疑惑,我发现这部分我还不是很清楚。
以下是我在整理多项式进行逻辑回归时的思想历程,也是我疑惑的开始。
就多项式逻辑回归而言,决策边界的得到是在建立模型之后,通过模型的预测得到的,从多项式来看决策边界有接触到(通过高维数据建立的模型)高维数据(多项式后的X),但是SVM高斯核函数似乎并没有对数据进行升维,直接结合公式求结论,我的疑惑在于: 决策边界究竟是在二维层面画出一个很复杂的曲线(没升维),还是在高维简单的图像映射到低维的结果?
这个疑惑承接上文,和我上次问的PCA有些类似
假设(我更倾向于这个可能)决策边界是高位映射到低维的结果,在1维的数据X升维到2维,用一条线进行线性可分;2维数据X升到3维,是用一条线进行分割?还是用一个二维平面进行分割?
以此类推k维数据升到n维,是用n-1维进行分割还是?还是用一条直线进行分割?
关于SVM中的核函数和多项式与决策边界的关系
二者在生成决策边界的过程中有何不同?
#高斯核函数
Pipeline([
('std',StandardScaler()),
('svc',SVC(kernel='rbf',gamma=gamma))
])
#多项式
Pipeline([
('Poly',PolynomialFeatures(degree=degree)),
('standard',StandardScaler()),
('linearSVC',LinearSVC(C=C))
])
我不清楚二者之间的核心区别,亦或者区别不大?
登录后可查看更多问答,登录/注册