请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Epoch后面的数字是1875

老师,为什么我的Epoch后面的数字是1875,您的是60000呢?
Epoch 1/10
1875/1875 [==============================] - 4s 2ms/step - loss: 0.3479

代码:
#train the model
mlp.fit(X_train_normal,y_train_format,epochs=10)

请问我是哪错了吗?

正在回答 回答被采纳积分+3

插入代码

2回答

flare_zhao 2022-02-23 18:38:31

加油哈

0 回复 有任何疑惑可以回复我~
flare_zhao 2022-02-19 20:05:26

查看下训练的样本数,和课程的对比一下


0 回复 有任何疑惑可以回复我~
  • 提问者 慕桂英7589197 #1
    老师,前面的数据shape都是跟您一样的(60000, 784),就是在后面训练的时候就变成1875
    回复 有任何疑惑可以回复我~ 2022-02-21 13:39:12
  • 那是模型参数不一样?batch size之类 你检查下
    回复 有任何疑惑可以回复我~ 2022-02-22 10:31:56
  • 提问者 慕桂英7589197 回复 flare_zhao #3
    谢谢老师,我把训练模型中,加了batch_siz参数,终于跟老师的数目一样了
    mlp.fit(X_train_normal,y_train_format,epochs=10,batch_size=1)
    结果
    Epoch 1/10
    60000/60000 [==============================] - 88s 1ms/step - loss: 
    
    但是加了之后准确率为0.9942166666666666
    没加batch size参数时,准确率是0.99985,准确率更高
    回复 有任何疑惑可以回复我~ 2022-02-23 14:38:32
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号