请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

global_pool到底是什么意思,领悟不了啊

global_pool = tf.reduce_mean(layers[-1], [1, 2])
这一句不明白在做什么,能详细讲一下吗?

正在回答 回答被采纳积分+3

2回答

正十七 2018-09-11 14:08:47

加入特征图大小是[None, 10,10,2048], (10,10)是每个特征图的大小,2048是通道数目。那么(2,2)的max_pooling会将结果变为[None, 5,5,2048]的大小,而global_pooling,可以看成是(10,10)的pooling,所以结果会变为(None, 1,1,2048), 而因为我用的是reduce_mean, 所以它会自动将[1,2]两个维度抹平,所以问题中代码的输出是[None, 2048], 所以不用展平了。

总而言之,global_pool 相当于是大小与特征图大小一样的pooling。

2 回复 有任何疑惑可以回复我~
  • 老师,应该是average pooling~
    回复 有任何疑惑可以回复我~ 2018-11-22 22:49:11
  • 好的,多谢指正,原理类似。
    回复 有任何疑惑可以回复我~ 2018-11-25 21:50:48
提问者 浮夸的小蚂蚁 2018-09-10 09:26:38

另外,还想问一下,在vgg中,最后的全连接层,还用了tf.contrib.layers.flatten 进行展平,在这里为什么不用展平了?

0 回复 有任何疑惑可以回复我~
  • 参考第一个问题的回答。
    回复 有任何疑惑可以回复我~ 2018-09-11 14:09:08
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信