采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
也有可能是我自己理解错了。。
residual_block中的第二个卷积不需要activation吧,加完后才应该一起非线性变换,估计老师你这么做也不会有什么问题。。
同学你好,你考虑的非常严谨,我又去check了一下resnet的官方实现:https://github.com/tensorflow/models/blob/master/official/resnet/resnet_model.py
243行-244行,确实是先加起来又做的激活。如果你有时间,你可以check一下这两种方式哪一种会得到好的效果?
赞,谢谢你的问题。
哈哈,能帮老师提交issue是我的荣幸~
老师课件上的残差结构图上,第二个卷积层确实是没有relu函数
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.5k 8
1.0k 7
1.1k 7
1.9k 7