请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

请问老师,seq2seq模型怎么把输入的不定长句子转化成定长的向量啊?

是通过给encoder中的LSTM设置固定的神经元吗?

还有一个不明白的是,比如LSTM有四个神经元,那输入的句子假如是“大家早上好”,这里有五个字,那应该怎么输入啊?

https://img1.sycdn.imooc.com//szimg/5b8656470001189e19201080.jpg

像这样吗?那“好”怎么输入?

最后,是不是v1,v2,v3,v4这四个值就直接做一下层网络的输入啦?


正在回答

1回答

一般来讲encoder是需要进行训练或者通过一定的算法得到输出,那么这样的话,“大家早上好”这几个字会被送入到encoder的训练器,而这个训练器的输出维度是固定的,这个维度可以对应到LSTM的神经元维度上,来确保其一致性。

2 回复 有任何疑惑可以回复我~
  • 提问者 慕村9918781 #1
    恩....输出维度是固定的,所以就可以将变长的语句变成固定的向量,这个可以理解。不理解的是LSTM具体的结构和执行,是不是有多个LSTM层,然后每一层的节点之间有时序关系,但是两层LSTM之间的关系就和普通的神经网络的全连接层一样?问题有点多,哈哈,不好意思?如果老师有好的学习资料,啥链接,博文的,可以分享一下吗。非常感谢
    回复 有任何疑惑可以回复我~ 2018-08-29 16:29:37
问题已解决,确定采纳
还有疑问,暂不采纳
NLP实践TensorFlow打造聊天机器人
  • 参与学习       673    人
  • 解答问题       281    个

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

了解课程
意见反馈 帮助中心 APP下载
官方微信