请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

Attention 与full connect的区别?

感觉单层的Attention是要连接上一层,或者说是输入的每一个输入的单个节点,跟全连接结构特别像,有没有特别细的区别或者说明?

正在回答

插入代码

1回答

Mr_Ricky 2019-04-02 19:08:35

全连接层是层与层之间的全连接,而且是所有的节点连接,而attention是特定的在那一句话中的词的连接,这是不一样的。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
NLP实践TensorFlow打造聊天机器人
  • 参与学习       673    人
  • 解答问题       281    个

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

了解课程
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号