请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

epoch_size

学生知道1个epoch等于使用训练集中的全部样本训练一次,但不理解epoch_size的意义,以及为什么要像下式求解?

epoch_size = (batch_len - 1) // num_steps

正在回答

2回答

==== 一些术语的概念 ====
# Batch size : 批次(样本)数目。一次迭代(Forword 运算(用于得到损失函数)以及 BackPropagation 运算(用于更新神经网络参数))所用的样本数目。Batch size 越大,所需的内存就越大
# Iteration : 迭代。每一次迭代更新一次权重(网络参数),每一次权重更新需要 Batch size 个数据进行 Forward 运算,再进行 BP 运算
# Epoch : 纪元/时代。所有的训练样本完成一次迭代
# 假如 : 训练集有 1000 个样本,Batch_size=10
# 那么 : 训练完整个样本集需要: 100 次 Iteration,1 个 Epoch
# 但一般我们都不止训练一个 Epoch

epoch_size 就是 Epoch 的数目。


0 回复 有任何疑惑可以回复我~
  • 提问者 慕的地591 #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2018-09-03 21:03:11
  • 限量版灬型男 回复 提问者 慕的地591 #2
    这个式子里的减1是什么意思啊,为什么要减1?
    回复 有任何疑惑可以回复我~ 2018-09-12 16:10:10
昵称不能修改 2018-09-13 23:24:46

同问,又不是取的index, 为什么要 - 1?

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号