采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
从上到下依次为图1,图2[滑到最底端] 1.为什么max_length设置成500,依据什么设置的? 2.7-2中的vocab_size=10000依据是什么 3.每个词对应的数字映都要映射成16长度的向量么,如下图1所示 4.为什么7-5同学提的问题中的vocab_size写的是len(vocab), 但是老师在7-3中却将vocab_size设成了一个常量10000,而不是vocab的长度? 如下图2所示:
max_sequence = 500, 要根据数据来,统计长度,要在数据覆盖程度和模型训练复杂度之间做trade-off
vocab_size = 10000,一样,也要根据数据来,覆盖越多的词语越好,但也不能太大,太大会导致模型尺寸很大,也是一个trade-off. 在这个demo中,这两个我是肉眼看了一下数据设的,真实场景下要自行统计数据。
embedding_dim是一个超参数,可以设置成其他值。
很多稀有词,比如只出现过一次,不配拥有自己的embedding,哈哈。有了也无法训练。如2, 词表不能太大,总要有取舍,低频词一般会被干掉来防止模型太大。
非常感谢!
登录后可查看更多问答,登录/注册
Tensorflow2.0实战—以实战促理论的方式学习深度学习
3.4k 1
1.9k 3
1.7k 19
1.9k 13
2.7k 7
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号