请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

resnet的实现有错误吧。。

也有可能是我自己理解错了。。

residual_block中的第二个卷积不需要activation吧,加完后才应该一起非线性变换,估计老师你这么做也不会有什么问题。。

正在回答

1回答

同学你好,你考虑的非常严谨,我又去check了一下resnet的官方实现:https://github.com/tensorflow/models/blob/master/official/resnet/resnet_model.py

243行-244行,确实是先加起来又做的激活。如果你有时间,你可以check一下这两种方式哪一种会得到好的效果?

赞,谢谢你的问题。

0 回复 有任何疑惑可以回复我~
  • 提问者 学习使我快乐丷 #1
    哈哈,能帮老师提交issue是我的荣幸~
    回复 有任何疑惑可以回复我~ 2019-01-06 21:05:10
  • 老师课件上的残差结构图上,第二个卷积层确实是没有relu函数
    回复 有任何疑惑可以回复我~ 2020-02-03 17:07:44
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信