请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

MBGD和dataloader分batch的区别

老师请问下,MBGD的梯度下降法与我们在第四章的mini-batch的分类没有关系吧,dataloader相当于每次给模型一个batch的输入,然后模型采用GD的方式进行梯度下降,而我们要使用MBGD的话需要在优化其中进行定义,请问我理解的对吗,谢谢

正在回答 回答被采纳积分+3

插入代码

1回答

会写代码的好厨师 2021-07-15 00:50:18

实际上这里讲到的不同的计算梯度的方式,实现原理是一样的。区别在于,每次用多少个样本计算梯度,mini batch就是用这个batch的样本计算,比单个样本更稳定,比全部样本更快。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信