采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我看见git上pending issues 上有这个问题 但是transorformer代码上没有看到模型保存 能尽快更新吗?
已更新到代码库中。
目前来看,对于子类继承的模型,tensorflow2.0中不支持h5格式的保存,对于Sequential的模型才可以保存。而我们的transformer模型,并不是层级结构。因而目前不支持h5格式。
而对于encoder.save(‘encoder’,save_format=‘Tf’)的失败,则是因为我们的模型输入比较复杂,call函数的参数除了input还有mask信息。要想save_format = TF成功,只能有input信息,所以并不符合我们模型的需求。所以也无法实现。
目前可行的方法是checkpoint,即只存储模型的参数。这点我们已经在代码中实现了。可以参考最新的代码。
能,多给我几天时间哈。下周中间左右会更新。
seq2seq模型使用的平衡数据(.txt语料库)怎么配合Transformer模型?能不能配合?
同学你好,不懂你提问的问题是什么意思。能否具体一下?平衡语料指的是平行语料? 配合指的是训练么?
你好老师。我在学习第十章的seq2seq 和 Transformer的机器翻译,我感兴趣搭建自己的机器翻译。
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
2.8k 1
1.3k 3
1.2k 19
1.3k 13
2.0k 7