请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

为什么最后一层不使用非线性变换了?

3-4卷积网络这节前面,使用三个隐藏层的神经网络,隐藏层使用relu非线性函数计算,在最后输出dense(hidden3,10),但是这里为什么不加非线性函数softmax了,在后面直接根据argmax(dense(hidden3,10))取得分类预测值,总感觉很奇怪。我之前以为使用sparse_softmax_cross_entropy可以自动更新y=onehot(y) 更新y_=softmax(y_),但是测试了一下把y和y_拿回来打印出来发现是没有变的。

正在回答 回答被采纳积分+3

插入代码

1回答

提问者 Suspendz 2020-01-13 15:11:15

不过考虑到softmax下面是个e的x次的加和值,分子是e的x次,是个单调函数。而x来自于上一层的relu因此要么是0要么是正数,那似乎看起来argmax(softmax(x))和argmax(x)就没什么区别了。。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号