请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

batch_size和batch_len

在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)
2、另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀

正在回答 回答被采纳积分+3

1回答

提问者 慕沐5575308 2020-02-18 15:07:40

另外batch_len = data_len // batch_size

而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗

0 回复 有任何疑惑可以回复我~
  • 提问者 慕沐5575308 #1
    我看您对别人的回答有说,batch_size是20  num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵
    回复 有任何疑惑可以回复我~ 2020-02-18 15:12:44
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号