请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

为什么在encoder layer和decoder layer里的multiheadattention的qkv都传了x进去?

正在回答 回答被采纳积分+3

1回答

正十七 2020-11-16 22:31:10

在这个翻译问题上,存在这三种注意力,

  1. encoder的输入的要翻译的句子上的自己对自己的注意里,用来提取源语句信息。

  2. decoder的输入的句子自己对自己的注意力,用来提取目标语句的信息。

  3. encoder和decoder之间的注意力,用来寻找源语句和目标语句之间的对应关系。

输入的都是x的时候,说的是前两种注意力。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号