batch_size = 20
train_steps = 1000
test_steps = 100
老师 想问一下如果按照2个epoch 进行训练的话,
假设number_example = 101, batch_size = 20的话,
按照cifar-10的代码,如果我想将数据集过两次(epoch = 2)的话。
是不是将train_step设置为(101/20)*2呢?
如果是的话,还剩下1个example不知道有没有被训练,该怎么办。。
纠结于number_example无法被batch_size除尽,以及不知道train_steps该怎么设置的问题。。。
还有一个问题就是训练集会被shuffle,但是如何计算当前训练的是第几个epoch…