关于dropout:
fc1_dropout = tf.contrib.layers.dropout(fc1, keep_prob) 为什么这个输出的shape还是[100, 64],不是应该把神经元dropout了吗,应该是小于64的吧?
关于loss:
cnn中的loss是通过tf.losses.sparse_softmax_cross_entropy(…)直接得到的,这个api输出是一个标量啊,为什么rnn中需要做个tf.reduce_mean(),是不是两个api不一样啊?还有请说一下为什么cnn中输出的是一个标量?
关于上面这个api不是已经把logits给softmax了吗,为什么在后面y_pred = tf.argmax(tf.nn.softmax(logits),…) 中还要加个softmax,这里应该多余了吧?
还有为什么需要给每一个参数关于loss的梯度做一个限制,这样做的目的是什么?如果不做的话会有什么问题?
train_op中没有cnn中的minimize(loss),这样还会是减少loss的吗?是怎么实现训练降低loss的