Questions tagged «svd»

矩阵的奇异值分解(SVD) 一个由,其中和是正交矩阵,而是对角矩阵。 一个=ü小号VüV小号

2
为什么不能通过XX'和X'X的特征值分解来获得X的有效SVD?
我正在尝试手工制作SVD: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) 但是最后一行不会返回m。为什么?似乎与这些特征向量的迹象有关...还是我误解了该过程?
9 r  svd  eigenvalues 

1
在LSI中了解奇异值分解
我的问题通常是关于奇异值分解(SVD),尤其是关于潜在语义索引(LSI)。 假设我有一个,其中包含7个文档中5个单词的频率。Aword×documentAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) rownames(A) <- c('doctor','car','nurse','hospital','wheel') 我得到的矩阵分解通过使用SVD:。AAAA=U⋅D⋅VTA=U⋅D⋅VTA = U \cdot D \cdot V^T s = svd(A) D = diag(s$d) # singular value matrix S = diag(s$d^0.5 ) # diag matrix with square roots of singular values. 在1和2中指出: WordSim=U⋅SWordSim=U⋅SWordSim = …

1
LSA与pLSA之间的并列
在pLSA的原始论文中,作者Thomas Hoffman在pLSA和LSA数据结构之间画了一条相似的线,我想与您讨论一下。 背景: 从信息检索中获得启发,假设我们有一个 ññN 单据 D = {d1个,d2,。。。。,dñ}d={d1个,d2,。。。。,dñ}D = \lbrace d_1, d_2, ...., d_N \rbrace 和一个词汇 中号中号M 条款 Ω = {ω1个,ω2,。。。,ω中号}Ω={ω1个,ω2,。。。,ω中号}\Omega = \lbrace \omega_1, \omega_2, ..., \omega_M \rbrace 一个语料库 XXX 可以用 ñ× Mñ×中号N \times M 共生矩阵。 在SVD的潜在语义Analisys中,矩阵XXX 被分为三个矩阵: X= UΣVŤX=üΣVŤX = U \Sigma V^T 哪里 Σ = d我一个克{σ1个,。。。,σs}Σ=d一世一个G{σ1个,。。。,σs}\Sigma = …


1
如何解释降维/多维缩放的结果?
为了更好地理解数据的结构,我同时执行了SVD分解和6维数据矩阵的多维缩放。 不幸的是,所有奇异值都具有相同的阶数,这意味着数据的维数确实为6。但是,我希望能够解释奇异矢量的值。例如,第一个似乎在每个维度上都差不多相等(即(1,1,1,1,1,1)),第二个也有有趣的结构(类似(1,-1,1,-1,-1,1))。 我如何解释这些向量?您能指出一些有关该主题的文献吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.