采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
bn放在激活函数之前,下一层的输入不就不是均值为0方差为1了吗?
个人感觉,BN层的作用在于调整和平滑输入的分布,使得梯度更容易的传下去。我们在课上讲解的比较简单,这里有一个更深入的分析:https://www.zhihu.com/question/283715823
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
2.9k 1
1.4k 3
1.3k 19
1.4k 13
2.1k 7