采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
在lstm模型中,最上面的的C(t-1) 到C(t) 的变换中,这个C我要怎么理解他呢?视频中提到的这个cell表示的是隐含状态,那这个隐含状态要怎么去直观的理解他呢?他有什么作用。我在前面这些课中的理解这个隐含状态就是参数W,他表达的这个模型的表达能力。不知道理解的对不对,感觉这个cell这条轴就是这个lstm中最核心的部分了,最核心的部分也就是参数w了
C就是隐含状态,可以理解为前面输入的一个信息汇总。比如输入是”你 吃的 是 什么“,那么当把”你 吃的 是“输入进去的时候,那么隐含状态中就有这几个词语的信息。
隐含状态就是隐含状态,不是参数W,这个W是用来做变换的。C是一个单独的值。在RNN中隐含状态也是如此。
看了接下去的课程,关于实现lstm内部结构那节课,我感觉用这个cnn中的w来类比这个c还是挺贴切的,这个隐含状态的size为{batchsize,lstmnodes},而输出h的size也是这样的。我就通过这个后面的lstmnodes相当于是对输出h的一个表达来表示最后这个输出h记住了什么信息,都是记录在这个隐含状态中了。感觉用这个方法来理解加权矩阵fx,fh,fb的size就很清楚了。虽然可能不太对。但是好像也没有想到其他更直观的方法来看待这个c的size了。不知道老师的理解是怎么样的。感觉看其他同学的问题和回答有点看不太懂?
对,很赞同老师说的这个cell为前面输入信息的汇总
登录后可查看更多问答,登录/注册
深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN
1.5k 9
1.6k 8
1.1k 7
1.2k 7
1.9k 7