采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
谢谢老师~
1.梯队下降不一定会完全收敛。在很多实战情况里,经过一些轮次迭代 会有loss震荡,这个和训练数据有关。需要清洗训练数据。 2.这里是将用户点过的物品 学的距离尽量近,也就是会将相似行为的user最终学习的向量会距离很近,既而被他们行为的物品也会距离比较近,可以做sim item。
在监督训练中,我们只能针对训练集的分布优化loss,使得在测试集中loss也尽量小。而这里的loss是user向量与item向量的距离,并不是item向量与item向量的距离。就好像训练了一个对猫和狗分类的神经网络,怎么能期望它也能对鸡和鸭分类呢。
登录后可查看更多问答,登录/注册
让你掌握一套完整的,能落地的个性化推荐算法体系。可用于毕设。
990 7
953 6
961 6
2.1k 5
848 5