采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师您好,
如果把LSTM中的输入门和输出门去掉,只保留遗忘门,那它是不是就和加了Attention的普通RNN类似了呢?
还是不一样,attention机制是给很多步得到的向量A = [a1, a2, a3,...],分别去和另一个向量b去做attention计算权重,然后用权重再去给A做加权平均。这一点只有遗忘门做不到。
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.5k 8
1.0k 7
1.1k 7
1.9k 7