采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我在网上搜“DNN不收敛”,总有很多文章讲该如何调整模型参数的。但我在想,如果我的特征和标签相关性并不强,甚至完全无关,是不是才是不收敛的原因啊,为何这些文章都不提特征的相关性呢?还是说无论什么特征,只要模型参数调的足够好,总会收敛的,只是loss高低无法保证罢了?
网上的文章应该都做了假设,假设特征没问题,所以问题归结成了如何调整模型参数使之收敛。
特征是需要好好设计的,据我所知,百度就给广告模型提取了数十亿的特征。
老师,有个问题困扰了我很久,麻烦解答下: 我原以为对于相同的模型+超参,训练结果会是一样的,这样一来,我们要做的就是调整模型+超参,寻找一个最优解,就可以固化下来,作为我们predict的方案了。 但是我简单写了一段代码,在代码不变的情况下(输入/模型/超参都不变)多跑几次,准确率,有时高,有时低,这怎么算?你的课每次也都是跑一遍,实际上多跑几次结果会不一样。 我知道这个“每次跑结果不一样”的原因是训练过程里面有些随机值,比如SGD就是随机的,每一次跑都是在修正模型内部的参数,跑100次实际上就对应着100个不同的model,这点我能理解。 我的问题是,那我们搞深度学习的整体目标是什么?你也知道,没目标干啥都没法往下进行。 比如说:一个项目,准确率到0.8就合格了,相同的代码,我跑了100次,其中99次都是0.7,但有一次是0.9,这一次有意义吗?还是说,我们提高准确率是有前提的,前提是让每次跑的结果尽可能的一致,之后才考虑如何提升这个准确率? 烦请老师给解答下,困惑我好久了。
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
2.9k 1
1.5k 3
1.3k 19
1.4k 13
2.1k 7