请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

参数设置

从上到下依次为图1,图2[滑到最底端]
1.为什么max_length设置成500,依据什么设置的?
2.7-2中的vocab_size=10000依据是什么
3.每个词对应的数字映都要映射成16长度的向量么,如下图1所示
4.为什么7-5同学提的问题中的vocab_size写的是len(vocab),
但是老师在7-3中却将vocab_size设成了一个常量10000,而不是vocab的长度?
如下图2所示:
图片描述

图片描述

正在回答

1回答

正十七 2022-09-14 21:31:04
  1. max_sequence = 500, 要根据数据来,统计长度,要在数据覆盖程度和模型训练复杂度之间做trade-off

  2. vocab_size = 10000,一样,也要根据数据来,覆盖越多的词语越好,但也不能太大,太大会导致模型尺寸很大,也是一个trade-off. 在这个demo中,这两个我是肉眼看了一下数据设的,真实场景下要自行统计数据。

  3. embedding_dim是一个超参数,可以设置成其他值。

  4. 很多稀有词,比如只出现过一次,不配拥有自己的embedding,哈哈。有了也无法训练。如2, 词表不能太大,总要有取舍,低频词一般会被干掉来防止模型太大。

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号