SPSS提供了几种因子提取方法:
- 主成分(根本不是因子分析)
- 未加权最小二乘
- 广义最小二乘法
- 最大似然
- 主轴
- 阿尔法分解
- 图像分解
忽略第一种方法,不是因素分析(而是主成分分析,PCA),哪种方法是“最佳方法”?不同方法的相对优势是什么?基本上,我将如何选择使用哪一个?
另一个问题:是否应该从这6种方法中获得相似的结果?
SPSS提供了几种因子提取方法:
忽略第一种方法,不是因素分析(而是主成分分析,PCA),哪种方法是“最佳方法”?不同方法的相对优势是什么?基本上,我将如何选择使用哪一个?
另一个问题:是否应该从这6种方法中获得相似的结果?
Answers:
简而言之。后两种方法每个都非常特殊,与数字2-5不同。它们都被称为公因子分析,并且确实被视为替代方法。在大多数情况下,它们会给出相似的结果。它们之所以“通用”,是因为它们代表经典因子模型,即公共因子 +唯一因子模型。该模型通常用于问卷分析/验证。
主轴(PAF),又称带有迭代的主因子,是最古老的方法,也许是非常流行的方法。这是迭代PCA应用于矩阵,其中社区位于对角线上,而不是1s或方差。因此,每次下一次迭代都会进一步完善社区,直到它们收敛为止。这样做时,试图解释方差而不是成对相关性的方法最终解释了相关性。主轴法的优势在于,它可以像PCA一样分析相关性,还可以分析协方差和其他SSCP度量(原始sscp,余弦)。其余三种方法仅处理[在SPSS中;协方差可以在其他一些实现中进行分析]。此方法取决于社区的初始估计质量(这是它的缺点)。通常,将平方相关/协方差的平方用作起始值,但您可能更喜欢其他估计(包括先前研究得出的估计)。请阅读此为多。如果要查看主轴分解因数计算的示例,并对其进行注释并与PCA计算进行比较,请在此处查看。
普通或未加权最小二乘(ULS)是直接旨在最小化输入相关矩阵与再现的相关矩阵之间(按因子)的残差的算法(而对角元素作为公共性和唯一性之和旨在恢复1s)。 。这是FA的直接任务。如果因子的数量小于其秩,ULS方法可以使用奇异的甚至不是正的半确定的相关矩阵,尽管从理论上讲FA是否合适仍然存在疑问。
广义或加权最小二乘(GLS)是对前一个的修改。当使残差最小时,它对相关系数进行加权加权:具有较高唯一性的变量之间的相关性(在当前迭代中)的权重较小。如果您希望因子适合高度唯一的变量(即,弱因素驱动的变量)比高度通用变量(即,强因素驱动的变量)差,请使用此方法。这种愿望并不少见,尤其是在调查问卷的构建过程中(至少我认为是这样),因此该属性是有利的。
最大似然(ML)假设数据(相关性)来自具有多元正态分布的总体(其他方法没有这样的假设),因此相关系数的残差必须正态分布在0附近。在上述假设下,通过ML方法迭代估算了负荷。相关性的处理以与通用最小二乘法相同的方式由唯一性加权。尽管其他方法只是按原样分析样本,但ML方法可以推断总体,但通常会同时计算总体拟合指数和置信区间[不幸的是,尽管人们为SPSS编写了宏,它]。
我简要描述的所有方法都是线性连续潜模型。“线性”表示例如不应对等级相关性进行分析。“连续”表示例如不应分析二进制数据(基于四色相关的IRT或FA会更合适)。
因为相关(或协方差)矩阵,-在初始社区被放在对角线后,通常将具有一些负特征值,因此应避免使用这些特征值;因此,应通过特征分解而不是SVD来进行PCA。
ULS方法包括简化的相关矩阵的迭代本征分解,例如PAF,但在更复杂的Newton-Raphson优化过程中,旨在找到唯一的方差(,唯一性),在该方差处最大程度地重构相关性。在这种情况下,ULS等效于称为MINRES的方法(与MINRES相比,仅提取的负载出现了一些正交旋转),已知该方法可以直接最小化相关系数平方的和。
GLS和ML算法基本上与ULS一样,但是迭代的本征分解是在矩阵(或)上执行的,以合并唯一性作为重量。ML与GLS的不同之处在于采用了正态分布下预期的特征值趋势知识。
由较不常见的变量产生的相关性被允许拟合得更差的事实(我推测是这样)可能会为存在部分相关性提供一定的空间(无需解释),这似乎很好。纯公因子模型“期望”没有局部相关性,这不是很现实。
when to use which
吗?