采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
encoder中,输入的序列如果在尾部有padding,那么计算attention的时候好像不应该计算padding那部分的权重吧。是否在encoder也加入mask呢?谢谢
seq2seq + attention的模型在我们的实现中没有考虑到这个,这个确实可以加上这个mask。之所以没加是因为我们在纯attention模型中加了各种各样的mask。所以关于mask的知识在attention中会讲。
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
2.9k 1
1.4k 3
1.2k 19
1.4k 13
2.0k 7