Answers:
在音乐推荐的背景下(使用播放计数),我们在Spotify上使用逻辑损失进行隐式矩阵分解。我们刚刚在即将举行的NIPS 2014研讨会上发表了有关我们方法的论文。该论文的标题为隐式反馈数据的逻辑矩阵分解,可以在以下位置找到:http://stanford.edu/~rezab/nips2014workshop/submits/logmat.pdf
可以在我的Github上找到该论文的代码https://github.com/MrChrisJohnson/logistic-mf
您会在该主题上找到的大多数论文都将涉及等级为[0,5]的矩阵。例如,在Netflix奖中,矩阵的离散等级从1到5(+缺失值)。这就是为什么平方误差是分布最广泛的成本函数的原因。可以看到其他一些错误度量,例如Kullback-Leibler散度。
标准矩阵分解可能发生的另一个问题是矩阵U和V的某些元素可能为负(尤其是在第一步中)。这就是为什么您不将对数损失用作成本函数的原因。
但是,如果您正在谈论非负矩阵分解,则应该能够将对数损失用作成本函数。您的情况与Logistic回归类似,在这种情况下,对数损失用作成本函数:您的观察值为0到1,并且您预测的数字(概率)在0到1之间。