请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

LSTM和Attention的对比

老师您好,

如果把LSTM中的输入门和输出门去掉,只保留遗忘门,那它是不是就和加了Attention的普通RNN类似了呢?

正在回答

插入代码

1回答

正十七 2020-03-24 21:24:45

还是不一样,attention机制是给很多步得到的向量A = [a1, a2, a3,...],分别去和另一个向量b去做attention计算权重,然后用权重再去给A做加权平均。这一点只有遗忘门做不到。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号