Answers:
线性FA的输入数据假设(这里我不是在谈论FA 模型的内部假设/属性,也不是在检查结果的拟合质量)。
p
相关矢量必须跨越p-dim空间以容纳其p个相互垂直的唯一分量。因此,由于理论原因,因此没有奇异之处(因此自动生成,无需说;更好)。但是,并不是说完全的多重共线性是允许的;但是它可能会在大多数FA算法中引起计算问题(另请参见)。n observations > p variables
n>>p
FA的 ULS / minres 方法可以用于奇数甚至非psd相关矩阵,但严格来说,从理论上讲,这种分析对我而言是可疑的。
Binary data should also be avoided
可以,我们还能做binary data
什么?
在很多时候,进行因子分析本身并不需要任何统计检验。它比诸如回归,结构方程建模等方法更具主观性和解释性。通常,推论测试带有假设:为了使p值和置信区间正确,必须满足这些假设。
现在,如果将选择因子数量的方法设置为最大似然方法,则存在一个假设:输入到因子分析中的变量将具有正态分布。
输入变量将具有非零相关性是一种假设,因为如果假设不成立,则因子分析结果将(可能)无用:在任何一组输入变量后面都不会出现作为潜在变量的因子。
至于“因素(共同因素和具体因素之间没有相关性,一个因素的变量与其他因素的变量之间没有相关性”),这些因素并不是因素分析人员做出的普遍假设,尽管有时会出现两种情况(或近似情况)可能是可取的。后者持有时称为“简单结构”。
还有一种情况有时被称为“假设”:输入变量之间的零阶(原始)相关性不会被较大的部分相关性所淹没。简而言之,这意味着对于某些配对而言,关系应该牢固,而对于另一些配对,则应当弱一些。否则,结果将是“泥泞的”。这与简单结构的可取性有关,实际上可以使用Kaiser-Meyer-Olkin统计量或KMO对其进行评估(尽管未经过正式的“测试”)。通常认为KMO值接近.8或.9对于信息因素分析结果很有希望,而KMO接近.5或.6则没有太大希望,而那些低于.5的KMO可能会促使分析师重新考虑其策略。