采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
感觉单层的Attention是要连接上一层,或者说是输入的每一个输入的单个节点,跟全连接结构特别像,有没有特别细的区别或者说明?
全连接层是层与层之间的全连接,而且是所有的节点连接,而attention是特定的在那一句话中的词的连接,这是不一样的。
登录后可查看更多问答,登录/注册
解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。
998 9
888 6
996 5
2.2k 5
4.0k 4