在LSTM章节中,始终有两个问题想不明白?
1、batch_len是代表总批次的长度吗?(batch_size代表一个批次的样本数)另外算出batch_len=data_len//batch_size后,tf.reshap(raw_data[0:batch_size * batch_len], [batch_size, batch_len]),为什么是batch_sizebatch_len而不是batch_lenbatch_size呀。
2、另外batch_len = data_len // batch_size
而epoch_size = (batch_len - 1) // num_steps
epoch_size不是便利全部样本数据吗,难道一个批次的数据长度就是全部样本数据了吗?
3、我看您对别人的回答有说,batch_size是20 num_steps是35,代表一个批次有20组35个输入的数据,那epoch_size =((len(data) // batch_size) - 1) // num_steps怎么解释呢,不知道是哪理解错了,感觉越想越懵
16.9k 10
1.8k 9
1.8k 8
1.9k 7
1.5k 7