采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
global_pool = tf.reduce_mean(layers[-1], [1, 2]) 这一句不明白在做什么,能详细讲一下吗?
加入特征图大小是[None, 10,10,2048], (10,10)是每个特征图的大小,2048是通道数目。那么(2,2)的max_pooling会将结果变为[None, 5,5,2048]的大小,而global_pooling,可以看成是(10,10)的pooling,所以结果会变为(None, 1,1,2048), 而因为我用的是reduce_mean, 所以它会自动将[1,2]两个维度抹平,所以问题中代码的输出是[None, 2048], 所以不用展平了。
总而言之,global_pool 相当于是大小与特征图大小一样的pooling。
老师,应该是average pooling~
好的,多谢指正,原理类似。
另外,还想问一下,在vgg中,最后的全连接层,还用了tf.contrib.layers.flatten 进行展平,在这里为什么不用展平了?
参考第一个问题的回答。
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.5k 8
1.0k 7
1.2k 7
1.9k 7