请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,为什么在global_average_pooling2d_1层后面接全连接层效果反倒不好了?

如题,我在mobilenet的global_average_pooling2d_1层后面接的dense层,参数与课程中一致,但是训练效果并不好,是因为global average pooling之后丢失了特征图的中的信息么?

正在回答 回答被采纳积分+3

1回答

lewis 2020-01-24 13:00:07

没听明白,迁移学习本来就是把别的模型最后一层换成dense层,训练效果很好,建议你先可视化diff一下你的代码和示例代码的区别

0 回复 有任何疑惑可以回复我~
  • 提问者 zozo_zuo #1
    mobilenet模型中,“conv_pw_13_relu”层后面有一个“global_average_pooling2d_1”(全局平均池化层),我这里并没有直接将最后一个卷积层拉平(flatten),而是从最后一个卷积层后面的全局平均池化层接自己的全连接层,训练效果不理想,怀疑是全局平均池化层破坏了最后一层卷积层的结构信息
    回复 有任何疑惑可以回复我~ 2020-01-26 21:24:17
  • lewis 回复 提问者 zozo_zuo #2
    摊平flatten是必须的,这是高维向低维转换的必经之路。
    回复 有任何疑惑可以回复我~ 2020-01-26 21:28:58
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信