采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我的理解是: 训练的时候随机丢弃节点(把对应w设置成0),这样可以找出哪些节点是没有用的。 当训练完成后,模型已经确定了哪些节点没有用,也就是把对应的权重w设置成0。
不知道我的理解对不对?
不是,训练的时候是为了提升模型鲁棒性,可以理解在部分参数确实的时候,模型效果也稳定,这样模型在耦合数据的时候,会更稳健,测试的时候会关掉dropout
我训练完模型保存到文件上。然后在测试环境或者生成环境需要预测的时候,我从文件中读取出模型做预测,这个时候的模型实际上不会用dropout。我说的对吧?
登录后可查看更多问答,登录/注册
理论知识与实战项目双管齐下,让AI技术不再脱离实际,做到真正的落地应用。适合毕设展示。
1.1k 8
1.1k 6
729 6
964 5
2.1k 5