请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,为什么rnn计算交叉熵里logits和targets的维度不一样?


1
2
3
4
5
6
7
        # 计算 logits 的序列的交叉熵(Cross-Entropy)的损失(loss)
        loss = tf.contrib.seq2seq.sequence_loss(
            logits,  # 形状默认为 [20, 35, 10000]
            self.input_obj.targets,  # 期望输出,形状默认为 [20, 35]
            tf.ones([self.batch_size, self.num_steps], dtype=tf.float32),
            average_across_timesteps=False,
            average_across_batch=True)


正在回答 回答被采纳积分+3

插入代码

1回答

Oscar 2018-08-16 18:07:06
0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信