请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Attention 与full connect的区别?

感觉单层的Attention是要连接上一层,或者说是输入的每一个输入的单个节点,跟全连接结构特别像,有没有特别细的区别或者说明?

正在回答

1回答

Mr_Ricky 2019-04-02 19:08:35

全连接层是层与层之间的全连接,而且是所有的节点连接,而attention是特定的在那一句话中的词的连接,这是不一样的。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
NLP实践TensorFlow打造聊天机器人
  • 参与学习       673    人
  • 解答问题       281    个

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

了解课程
意见反馈 帮助中心 APP下载
官方微信