采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
bn放在激活函数之前,下一层的输入不就不是均值为0方差为1了吗?
个人感觉,BN层的作用在于调整和平滑输入的分布,使得梯度更容易的传下去。我们在课上讲解的比较简单,这里有一个更深入的分析:https://www.zhihu.com/question/283715823
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
3.0k 1
1.5k 3
1.3k 19
1.5k 13
2.1k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号