采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
因为线性回归就是预估是一条直线,然后又用最优化原理里的最小二乘法算法求出了最优化结果,这个结果已经是最有优化了,如果还要衡量,效果不好,是不是就意味着不应该用线性回归模型,还是说应该用线性模型,只是特征选的不好?
赞!你给出的解决方案都对!
有可能需要选取更好的特征;也有可能需要使用其他回归模型才能得到更好的结果。但不管怎样,当然要衡量,没有衡量,我们怎么知道我们得到的结果好不好?:)
就是说这里的衡量并不是衡量最小二乘法操作的,而是衡量模型本身选的对不对或者特征合适不合适? 想到其他一个问题,knn的话是用的分类模型,准确度是衡量被错分的样本特征,效果差的话,可以继续增加训练数据集,是不是还有其他的分类算法可以替换knn,knn是不是通吃分类问题?
最小二乘法是当前建模的最优解法。但是当前建模的方式不一定是最好的;当前建模所基于的样本特征也不一定是最具有代表性的。所以要衡量。knn只是诸多分类方法的一种。在机器学习的世界里,暂时没有任何一种方法通吃。如果有的话,就只学习那一种方法就好了:)请再回顾:没有免费的午餐定理。
搜了下应该是《机器学习 瓜皮》书里提到了,有时间看下,感觉这个定理证明应该挺奇怪,因为要证明任意情况都试用。 有点机器学习里的人生经验,比较好奇这些不像数学定理的定理是经验多一些还是客观规律多一些
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.4k 19
3.4k 17
2.9k 15
1.6k 15
1.4k 14