采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
在深度学习网络层数过多的时候会造成模型过大或者影响性能,我看paper说是有方法可以减掉一些不重要的神经元,不知道老师能不能给几个例子或者Paper推荐? 按照这个剪枝方法我们是不是可以先用移除迁移学习最后2,3层,再加上自己的数据训练剩下的网络层,最后再剪枝减少参数和模型大小?
这个其实在tensorflow2.0中会有剪枝的case,只不过现在的测试版还没实现,等到正式版了加上这个功能了会再补充哈。
另外,论文的话可以搜下模型蒸馏,也是压缩的好办法。
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
3.2k 1
1.8k 3
1.7k 19
1.8k 13
2.6k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号