请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

元宵节快乐

老师,又学习了一章节新的东西,谢谢老师。老师我比较笨,我有几个问题想下;
第0个,老师的两个案例都是 只有两个特征向量,也就是theta1和theta2,
如果有多个,那么可视化的时候应该怎么可视化,我比较困惑,是像第二章一样线性回归一样,看每两个变量的二维图。
一,老师讲了梯度下降,那么他的步伐那个a,具体表现在哪里,scklearn里面会自己优化这个梯度下降的算法吗?还是在对象的方法中有默认的值。
二。逻辑回归只是针对二分类吗,对多分类还是得用神经网络,决策树那些吗?
二,图片描述

老师求的x2,我试着求了下x1,然后我就晕了。我开始不理解,为什么要用x2_new = -(theta0+theta1*x1)/theta2这个,为什么要用已知的x1去推未知的x2_new,求出的意义又是什么?
三,老师辛苦,元宵节快乐!昨天太累了。没看,今天抓紧时间看了下,很期待老师后面的课程!

正在回答

2回答

0、当变量非常多的时候,可能无法直接可视化结果,因为通常我们普通作图都是2D或者3D的,这个时候可以主要通过一些模型评估指标来看模型的表现;

1、梯度下降法是实现回归、分类、mlp模型求解用的非常多的,因此我在知识讲解时有专门讲解。但其实线性回归的求解还有另外一种方法,称为正规方程求解(英文:regular expression)。这种方法不需要指定alpha,而是直接通过特征向量的矩阵计算完成,有两个很大的缺点:参数维度很高以后不适用;不能用于逻辑回归、mlp求解。因此flare老师没有介绍。当然,我们调用linearregression模型的时候,通常默认使用了这种求解方法,因此不需要指定alpha。

2、普通的logistic回归只能针对二分类(Binary Classification)问题,要想实现多个类别的分类,必须改进logistic回归,让其适应多分类问题。通常来说有两种改进方法:

第一种方式是直接根据每个类别,都建立一个二分类器,带有这个类别的样本标记为1,带有其他类别的样本标记为0。假如我们有个类别,最后我们就得到了个针对不同标记的普通的logistic分类器。(One VS Rest/ALL)

第二种方式要是将n个数据分类结果任意两个进行组合,然后对其单独进行训练和预测,最终在所有的预测种类中比较其赢数最高的即为分类结果,这样的分类方式最终将训练分为n(n-1)/2个模型(One VS One)

考虑本门课程的受众,没有进行太过深入的讲解,感兴趣的小伙伴可以继续学习一下逻辑回归用于多分类;

3、意义就是为了能够可视化你的分类的边界(decision boundary),这样你就能直观的看到分类的效果了。

问的挺细的,你学的很细心,很会反思,给你点赞。



3 回复 有任何疑惑可以回复我~
  • flare老师回答改进logistic回归的2种常用方法实现多分类,看中文描述还不太理解。但是看到(One VS Rest/ALL)和(One VS One)就马上明白了。忍不住给个大大的赞
    回复 有任何疑惑可以回复我~ 2022-05-25 22:20:20
  • 加油!
    回复 有任何疑惑可以回复我~ 2022-06-08 17:24:44
提问者 慕神9973112 2020-02-10 08:50:38

谢谢老师,辛苦了

1 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信