采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
https://coding.imooc.com/learn/questiondetail/72774.html
就是这个问题里的,但是我还是搞不懂为什么两列都是1,能求出对应的两个theta一个是正常的intercept一个是0呢,他们两求偏导的梯度下降计算过程中,偏导数不都是一模一样的吗
我没有特别理解你的问题。
PolynomialFeatures的类对象transform以后,只有一列1。这列1,对应的是原来所有特征的0次幂乘积对应的结果:)
继续加油!:)
线性回归里面不是还会有个X_b操作吗 岂不是有两列1了呢 不太懂这里
非常感谢!
可以参考这里:https://coding.imooc.com/learn/questiondetail/116263.html 继续加油!:)
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.4k 19
3.4k 17
2.9k 15
1.6k 15
1.4k 14