请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

正在回答

1回答

relu 不是不会消失,这与训练数据有很大关系。sigmod 是在数据超过正负1之后,就变成了一条水平的直线,自然也就没有了梯度;而relu 是大于0是一条斜线,小于0才是一条直线。因此,如果训练数据总保持在【-1,1】之间时,sigmoid 不会发生梯度消失。而RELU对数据的要求就更宽泛,只要数据不为负就不会出现梯度消失。对于图像,视频来说,他们的像素值都是正值,即使做一些运算基本上也是乘法运算,因此使用RELU就没问题。而到了大语言模型,由于数据有正有负,所以RELU也不适用了。所以结论是:对于不同的任务,其训练数据有很大不同,像RELU特别适合处理图像,视频类的任务;sigmoid 适合处理数据有正有度,但范围都在【-1,1】这个范围的任务;

1 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号