请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Transformer模型怎么保存

我看见git上pending issues 上有这个问题 但是transorformer代码上没有看到模型保存 能尽快更新吗?

正在回答 回答被采纳积分+3

2回答

正十七 2019-12-01 15:38:56

已更新到代码库中。


目前来看,对于子类继承的模型,tensorflow2.0中不支持h5格式的保存,对于Sequential的模型才可以保存。而我们的transformer模型,并不是层级结构。因而目前不支持h5格式。

而对于encoder.save(‘encoder’,save_format=‘Tf’)的失败,则是因为我们的模型输入比较复杂,call函数的参数除了input还有mask信息。要想save_format = TF成功,只能有input信息,所以并不符合我们模型的需求。所以也无法实现。

目前可行的方法是checkpoint,即只存储模型的参数。这点我们已经在代码中实现了。可以参考最新的代码。


0 回复 有任何疑惑可以回复我~
正十七 2019-11-24 20:44:43

能,多给我几天时间哈。下周中间左右会更新。

0 回复 有任何疑惑可以回复我~
  • seq2seq模型使用的平衡数据(.txt语料库)怎么配合Transformer模型?能不能配合?
    回复 有任何疑惑可以回复我~ 2019-12-06 12:02:37
  • 正十七 回复 MrError404 #2
    同学你好,不懂你提问的问题是什么意思。能否具体一下?平衡语料指的是平行语料? 配合指的是训练么?
    回复 有任何疑惑可以回复我~ 2019-12-15 14:22:48
  • MrError404 回复 正十七 #3
    你好老师。我在学习第十章的seq2seq 和 Transformer的机器翻译,我感兴趣搭建自己的机器翻译。
    回复 有任何疑惑可以回复我~ 2019-12-17 11:27:54
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信