采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
学生知道1个epoch等于使用训练集中的全部样本训练一次,但不理解epoch_size的意义,以及为什么要像下式求解?
epoch_size = (batch_len - 1) // num_steps
==== 一些术语的概念 ==== # Batch size : 批次(样本)数目。一次迭代(Forword 运算(用于得到损失函数)以及 BackPropagation 运算(用于更新神经网络参数))所用的样本数目。Batch size 越大,所需的内存就越大 # Iteration : 迭代。每一次迭代更新一次权重(网络参数),每一次权重更新需要 Batch size 个数据进行 Forward 运算,再进行 BP 运算 # Epoch : 纪元/时代。所有的训练样本完成一次迭代
# 假如 : 训练集有 1000 个样本,Batch_size=10 # 那么 : 训练完整个样本集需要: 100 次 Iteration,1 个 Epoch # 但一般我们都不止训练一个 Epoch
epoch_size 就是 Epoch 的数目。
非常感谢!
这个式子里的减1是什么意思啊,为什么要减1?
同问,又不是取的index, 为什么要 - 1?
登录后可查看更多问答,登录/注册
机器学习入门,打牢TensorFlow框架应用是关键!
16.9k 10
1.8k 9
1.8k 8
1.9k 7
1.5k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号