请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

关于LFM的几点疑问

  1. 梯度下降训练一定会收敛吗?是否有理论依据?
  2. 12分30秒处老师提到可以用训练好的item向量计算item-to-item相似度矩阵,然后用item cf的思想做推荐。但是训练过程中并没有以item-to-item的相似度作为目标,如何保证相似的item具有相似的向量?

谢谢老师~

正在回答 回答被采纳积分+3

1回答

David 2019-06-07 09:21:26

1.梯队下降不一定会完全收敛。在很多实战情况里,经过一些轮次迭代 会有loss震荡,这个和训练数据有关。需要清洗训练数据。 2.这里是将用户点过的物品 学的距离尽量近,也就是会将相似行为的user最终学习的向量会距离很近,既而被他们行为的物品也会距离比较近,可以做sim item。

0 回复 有任何疑惑可以回复我~
  • 提问者 金戈大王 #1
    在监督训练中,我们只能针对训练集的分布优化loss,使得在测试集中loss也尽量小。而这里的loss是user向量与item向量的距离,并不是item向量与item向量的距离。就好像训练了一个对猫和狗分类的神经网络,怎么能期望它也能对鸡和鸭分类呢。
    回复 有任何疑惑可以回复我~ 2019-06-07 15:59:10
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信