采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师这节课的dataset不用做repeat()的处理吗,还是有什么机制能保证数据肯定够用呢?
同学你好,很高兴你发现了这个问题,我测试了一下,发现seq_dataset大概一次遍历包含了170个batch。所以我理解是在训练的时候,每个epoch重新初始化了这个dataset。所以才导致了数据一直够用。但是不是所有的dataset都有这样的性质。初步怀疑是只有from_tensor_slices的数据可以这样。
但是很遗憾我没有找到文档上对这个观点的支撑。你可以先暂时这样理解。
非常感谢!
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
3.2k 1
1.8k 3
1.6k 19
1.7k 13
2.5k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号