采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
很大的梯度流过神经元,不会有激活现象???这段没听懂。。
假设relu的输入也就是上一层的输出是一个大于0的值,那么当一个比较大的梯度经过后,使得网络通过调整让relu的输入小于0了。在这个时候,因为经过relu后是0,所以梯度计算出来就都是0了,因而底层的网络可能会不再调整,因而relu之后的输出值就一直是0,没有了变化,就形成了dead relu.
非常感谢!
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.6k 8
1.1k 7
1.2k 7
2.0k 7