采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我觉得应该是a) 合理些,求教老师解答。
谢谢!
应该是b,之前大家都用word2vec或者自行训练embedding,然后再保持embedding不变去训练网络其他部分。但是后来通用的做法就是一块训练,因为效果好。
end-to-end 方法带来的性能瓶颈不会很大么?
train的时候会慢,inference的时候直接用embedding应该跟word2vec没有区别。然后train的时候慢就上分布式GPU/TPU环境训练,性能问题可以解决。
谢谢老师
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
2.8k 1
1.3k 3
1.2k 19
1.3k 13
2.0k 7