请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

使用dropout在训练过程中随机把权重w设置成0,那么当训练完成后,模型里面是不是会确定了哪些权重是0?

我的理解是:
训练的时候随机丢弃节点(把对应w设置成0),这样可以找出哪些节点是没有用的。
当训练完成后,模型已经确定了哪些节点没有用,也就是把对应的权重w设置成0。

不知道我的理解对不对?

正在回答 回答被采纳积分+3

1回答

会写代码的好厨师 2024-02-22 12:28:03

不是,训练的时候是为了提升模型鲁棒性,可以理解在部分参数确实的时候,模型效果也稳定,这样模型在耦合数据的时候,会更稳健,测试的时候会关掉dropout

0 回复 有任何疑惑可以回复我~
  • 提问者 慕的地3102425 #1
    我训练完模型保存到文件上。然后在测试环境或者生成环境需要预测的时候,我从文件中读取出模型做预测,这个时候的模型实际上不会用dropout。我说的对吧?
    回复 有任何疑惑可以回复我~ 2024-02-22 12:44:59
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信