请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,我按照你的代码一个个敲一遍,为啥是这样结果啊

图片描述epochs = 10
steps_per_epoch = len(input_tensor)//batch_size

for epoch in range(epochs):
start = time.time()

encoding_hidden = encoder.initialize_hidden_state()
total_loss = 0

for(batch,(inp,targ)) in enumerate(
    train_dataset.take(steps_per_epoch)):
    batch_loss = train_step(inp,targ,encoding_hidden)
    total_loss += batch_loss
    
    if batch % 100 == 0:
        print('Epoch {} batch {} loss {:.4f}'.format(
            epoch+1,batch,batch_loss.numpy()))
print('Epoch {} Loss {:.4f}'.format(epoch+1,total_loss/steps_per_epoch))
print('Time take for 1 epoch {} second\n'.format(time.time() - start))

正在回答

1回答

所以问题是啥?

另:我们的代码在git上:https://git.imooc.com/coding-344/tensorflow2.0_course,你可以自己diff一下哪里不一样。

0 回复 有任何疑惑可以回复我~
  • 提问者 王浩同学 #1
    问题是我的loss 10 个epoch之后才 0.37,您的就是0.04了,我是按照您的视频 一个个敲的,呜呜呜
    回复 有任何疑惑可以回复我~ 2021-04-19 22:32:35
  • 提问者 王浩同学 #2
    老师  我已经解决了,是attention_weights * encoder_outputs 权重相乘 我打成 相加了!多谢老师!
    回复 有任何疑惑可以回复我~ 2021-04-21 12:31:22
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信