Answers:
值得注意的是,虽然LSA和LSI使用SVD发挥作用,但在计算和概念上更简单的方法称为HAL(超空间语言模拟),它可以通过文本跟踪先前和之后的上下文进行筛选。从这些(通常是加权的)共现矩阵中提取向量,并选择特定的词来索引语义空间。在许多方面,我不需要SVD在数学/概念上复杂的步骤就可以理解它的性能和LSA一样好。有关详细信息,请参见Lund&Burgess,1996。
NMF和SVD都是矩阵分解算法。 维基百科上有一些有关NMF的相关信息。
SVD和PCA密切相关。首先,PCA只是相关性的本征分解。SVD是特征分解到非平方矩阵的概括。奇异值是矩阵特征值乘以矩阵转置后的平方根(使其成为平方并适合特征分解)。此外,如果矩阵是正常的(),奇异值只是特征值的绝对值。无论如何,奇异值都是非负的,失去特征值的符号就是您能够使用非平方矩阵的代价。
其他响应者涵盖了LSI / LSA ...