采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
在LFM计算给用户推荐的list的时候并没有把用户本身喜欢的电影且点击过的电影给排除掉,那计算出来的应该和用户原本的喜欢的电影应该有大部分重合才对,但是并不是这样的,应该怎么样判断这个结果的好坏呢,还有如何判断训练多久效果最好呢?
召回可以用固定的方法去评估就是分出一部分测试数据集,课程里在总结召回离线在线评估时候有讲。 你反馈的问题应该是训练还不太收敛 你可以打印出loss 观察一下loss收敛没有
老师 您好,loss是否可以直接用 loss = 0 for data_instance in train_data: userid,itemid,label = data_instance loss += math.pow(label -model_predict(user_vec[userid],item_vec[itemid]),2) 我用这个计算loss的时候一开始14,15个迭代loss从3000多降低到700,后面基本从665缓慢下降到660,那这时候loss已经收敛了嘛
登录后可查看更多问答,登录/注册
让你掌握一套完整的,能落地的个性化推荐算法体系。可用于毕设。
1.0k 7
976 6
979 6
2.1k 5
872 5