请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

很大的梯度流过神经元??

图片描述很大的梯度流过神经元,不会有激活现象???这段没听懂。。

正在回答

1回答

假设relu的输入也就是上一层的输出是一个大于0的值,那么当一个比较大的梯度经过后,使得网络通过调整让relu的输入小于0了。在这个时候,因为经过relu后是0,所以梯度计算出来就都是0了,因而底层的网络可能会不再调整,因而relu之后的输出值就一直是0,没有了变化,就形成了dead relu.

2 回复 有任何疑惑可以回复我~
  • 提问者 慕桂英雄 #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2019-06-09 22:42:30
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信