请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

ReLU在训练的时候很脆弱,容易失去作用

假如一个非常大的梯度流过一个relu神经元,更新参数后,这个神经元就不会对任何数据有激活现象,那么这个神经元的梯度就是0,这个问题怎么解决

正在回答

1回答

 一个非常大的梯度经过梯度更新后很可能使参数w或者b变成了绝对值很大的参数,尤其是偏置项b变成了一个极小的数值,那么这个神经元的wx+b很有可能永远小于0,但是这种情况不是说一个极大的梯度经过以后就一定是输出永远小于0.,只能说这样的情况的确存在…对relu,没有激活意味着wx+b<0,那么该relu神经元输出就是零,那么反向传播经过该神经元的梯度就是零,那么也就意味着这个神经元失活了。


0 回复 有任何疑惑可以回复我~
  • 提问者 朱钢同学 #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2018-09-05 15:33:58
问题已解决,确定采纳
还有疑问,暂不采纳
NLP实践TensorFlow打造聊天机器人
  • 参与学习       673    人
  • 解答问题       281    个

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

了解课程
意见反馈 帮助中心 APP下载
官方微信