请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

batch_size、batch_len问题整理

在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀。

2、另外batch_len = data_len // batch_size
而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗?

3、我看您对别人的回答有说,batch_size是20 num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵

正在回答 回答被采纳积分+3

1回答

Oscar 2020-02-20 10:20:48

我认为代码中的注释已经把这块讲过了呀。

你应该结合幻灯片中的原理图再理解一下。

1 回复 有任何疑惑可以回复我~
  • 提问者 慕沐5575308 #1
    来来回回看了好多遍了的,老师。
    主要是不能理解batch_len这个代码中代表什么,而且代码中为什么reshape成[batch_size,batch_len]这样的二维数组
    回复 有任何疑惑可以回复我~ 2020-02-20 10:30:05
  • 提问者 慕沐5575308 #2
    我知道我的误区是哪了,不好意思
    回复 有任何疑惑可以回复我~ 2020-02-20 16:25:13
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号