采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我的理解是: 训练的时候随机丢弃节点(把对应w设置成0),这样可以找出哪些节点是没有用的。 当训练完成后,模型已经确定了哪些节点没有用,也就是把对应的权重w设置成0。
不知道我的理解对不对?
不是,训练的时候是为了提升模型鲁棒性,可以理解在部分参数确实的时候,模型效果也稳定,这样模型在耦合数据的时候,会更稳健,测试的时候会关掉dropout
我训练完模型保存到文件上。然后在测试环境或者生成环境需要预测的时候,我从文件中读取出模型做预测,这个时候的模型实际上不会用dropout。我说的对吧?
登录后可查看更多问答,登录/注册
理论与实战项目双管齐下,让AI技术真正落地应用,适合毕设展示。
1.2k 8
1.2k 6
787 6
1.0k 5
2.2k 5
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号