请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

请问老师,embedding层的训练是如何进行的呢?

  1. 使用预训练的embedding层,trainable = False,这个好理解。
  2. 如果想从自己的语料训练一个embedding,那么是
    a) 先彻底完成embedding层的训练(skip-gram),将此层固定下来后,继续训练剩余层。还是
    b)embedding层也是与其他层一样,是根据最终的loss来更新的。

我觉得应该是a) 合理些,求教老师解答。

谢谢!

正在回答

1回答

应该是b,之前大家都用word2vec或者自行训练embedding,然后再保持embedding不变去训练网络其他部分。但是后来通用的做法就是一块训练,因为效果好。

0 回复 有任何疑惑可以回复我~
  • end-to-end 方法带来的性能瓶颈不会很大么?
    回复 有任何疑惑可以回复我~ 2019-10-31 17:19:58
  • 正十七 回复 船长will #2
    train的时候会慢,inference的时候直接用embedding应该跟word2vec没有区别。然后train的时候慢就上分布式GPU/TPU环境训练,性能问题可以解决。
    回复 有任何疑惑可以回复我~ 2019-10-31 23:24:42
  • 船长will 回复 正十七 #3
    谢谢老师
    回复 有任何疑惑可以回复我~ 2019-10-31 23:25:28
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信