采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
上面的写法对吗? 另外,在这里使用平方差和交叉熵的loss,一般最后效果差别大吗? 如果是在多分类softmax里, 使用平方差和交叉熵,效果差别大吗?
看了一下官方文档,https://www.tensorflow.org/api_docs/python/tf/nn/sigmoid_cross_entropy_with_logits
你的实现应该是对的,你可以运行一下看看对不对。
根据我的经验,在二分类上,两者效果应该差不多,但在多分类里,一般交叉熵比平方差会好。主要在于交叉熵的log有放大作用,可以区分出要学习的重点。
非常感谢!
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.9k 9
2.1k 8
1.5k 7
1.6k 7
2.4k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号