采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师,您好,我在海量数据实战wide_deep模型碰到下面两个问题: 第一个问题: 我的训练数据有1000多个特征,有20个G,在HDFS是libsvm存储的,但是wide-deep模型是读取csv文件,有没有直接读取libsvm的参考?或者我的数据量特别大,是不是需要转化成tfecord,数据转化也会很费时间?请您给出相关的参考? 第二个问题: 老师,wide_deep的下一步是不是尝试一下deepfm?还是阿里的深度兴趣网络?您有相关的实践经验吗? 非常期待您的回答
你样本很多 就按batch来 batch几次就会存一个checkpoint。我们在实战中也是 每小时数据按batch处理完,然后等下一小时数据到再处理,保证model的更新。
非常感谢!
两种方式吧。一你可以把 libsvm转tf record,百度一下很多demo。第二种 你可以把libsvm转成我例子中都可以。关键是保证feature transform填对。 deepfm我们实战的效果,包括我认识很多同学在实战中使用deepfm效果都不好.DIN 感兴趣的话你可以看看尝试一下。
非常感谢老师!
登录后可查看更多问答,登录/注册
让你掌握一套完整的,能落地的个性化推荐算法体系。可用于毕设。
1.3k 7
1.3k 6
2.4k 5
1.1k 5
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号