采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师,为什么我的Epoch后面的数字是1875,您的是60000呢? Epoch 1/10 1875/1875 [==============================] - 4s 2ms/step - loss: 0.3479
代码: #train the model mlp.fit(X_train_normal,y_train_format,epochs=10)
请问我是哪错了吗?
加油哈
查看下训练的样本数,和课程的对比一下
老师,前面的数据shape都是跟您一样的(60000, 784),就是在后面训练的时候就变成1875
那是模型参数不一样?batch size之类 你检查下
谢谢老师,我把训练模型中,加了batch_siz参数,终于跟老师的数目一样了 mlp.fit(X_train_normal,y_train_format,epochs=10,batch_size=1) 结果 Epoch 1/10 60000/60000 [==============================] - 88s 1ms/step - loss: 但是加了之后准确率为0.9942166666666666 没加batch size参数时,准确率是0.99985,准确率更高
登录后可查看更多问答,登录/注册
人工智能基础全方位讲解,构建完整人工智能知识体系,带你入门AI
1.3k 5
4.3k 3
1.7k 2
2.5k 3
1.2k 11
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号