请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,小批量随机梯度下降法的学习率也是随迭代次数增大而减小吗,每次选择的样本一般是多少呢

正在回答 回答被采纳积分+3

1回答

liuyubobobo 2018-08-24 15:15:40

梯度下降法中的学习率是一个超参,是和迭代次数独立的一个参数,而不是迭代次数的函数。学习率需要在执行算法前进行指定。可以参考我们这个课程中实现的梯度下降法训练的函数声明:

def fit_bgd(self, X_train, y_train, eta=0.01, n_iters=1e4):

其中,eta是学习率;n_iters是迭代次数。


对于小批量梯度下降法,每一个“小批量”是多少,可以根据自己计算环境的计算资源和样本总量而定,10%样本,5%样本,1%样本,都可以:)这也是一个超参数。随机梯度下降法和批量梯度下降法是小批量梯度下降法的两级。随机梯度下降法等于每一个批量的样本数为1;批量梯度下降法等于每一个批量的样本数为100%:)


加油!:)

0 回复 有任何疑惑可以回复我~
  • 提问者 慕用6515613 #1
    老师,你在随机梯度下降法里不是讲了学习率随迭代次数增加而减小吗,采用了模拟退火的思想,小批量梯度下降法的学习率也是这样吗
    回复 有任何疑惑可以回复我~ 2018-08-24 15:37:12
  • liuyubobobo 回复 提问者 慕用6515613 #2
    哦哦哦,我理解了。在随机梯度下降法中,我们的学习率不是给定的固定值,而是靠t0和t1和当前迭代的次数t计算出来的。对,小批量梯度下降法也可以使用同样的策略。其中t0和t1是超参数:)
    回复 有任何疑惑可以回复我~ 2018-08-24 15:40:34
  • 提问者 慕用6515613 回复 liuyubobobo #3
    嗯嗯,了解了,谢谢老师
    回复 有任何疑惑可以回复我~ 2018-08-24 16:22:27
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信