因子分析这一术语与智力理论及人格理论的发展密不可分。1904年,Spearman发表了著名论文“General Intelligence,Objectively Determined and Measured”,研究者开始尝试从定量视角描述个体的潜在心理属性,而Spearman当时所使用的统计技术就是因子分析。1949年,Cattell正式发布了其基于因子分析技术所编制的人格问卷——Sixteen Personality Factor Questionnaire(16PF),并在全球范围内得到广泛应用。至此,因子分析在心理和教育测量的两大领域——以智力测量为代表的最高行为测验和以人格测量为代表的典型行为测验——都进行了相对成功的实践。
因子分析是一种把描述某一事物/现象的多个可观察的变量(显变量)压缩为描述该事物/现象的少数几个不可观察的变量(潜变量)的统计分析技术。在社会科学研究中,因子分析就是把几个彼此间存在关联的变量转变为少数有意义且彼此独立的因子(Factor),即用少数的几个因子来解释/表示这些变量。此外,因子分析通过考查众多显变量(如条目)之间的关联性,来探究这些显变量背后的基本结构,并用少数几个有意义、相互独立的因子来表示数据的基本结构。故而,学者们有时也将因子分析描述为一种“降维”技术,即用少数几个更具概括性的因子来减少原有维度的技术。这些因子能够反映/代表原来众多的显变量所表述的主要信息,并解释这些显变量之间的相关依存关系。总体上,因子分析是用于解释显变量之间相关的统计模型,主要用于实现解释变量间的相关性和简化数据两个目的。因子分析在社会科学领域中最常用于探索、检验测验量表的结构效度(戴晓阳 等,2009)。接下来分别介绍EFA和CFA基本原理。
进行探索性因子分析,需要先对条目分数进行标准化处理,即将其转换为Z分数,并有一个基本的理论公式:
Z ij =λ 11 F 11 + λ 12 F 12 +……+ λ jk F ik + u ij
其中,Z ij 为第i个被测者在第j个条目的标准化得分,λ jk 为第j个条目在第k个因子的权重即因子负荷(因子载荷),F ik 为第i个被测者的第k个因子的得分,u ij 为第i个被测者在第j个条目的独特性因子。并且还假设F ik 的均值为0,标准差为1;u ij 的均值为0,变异数为 。由此可见,被测者在某个条目上的得分等于一组公因子与条目独特性的加权之和。由于是一组公因子,则决定条目反应的因素可能不止一个,因此在进行EFA时会发现一个条目在多个公因子上存在因子负荷。
假如某心理测验包括 2 个因子,每个因子各 3 个条目(图 1.1)。其中,公因子用圆圈和f表示;公因子间的双箭头表示相关系数,但该系数可为0,即因子间无相关。条目用矩形和y表示。公因子指向条目的箭头即因子负荷;方框下方的箭头代表独立因子对条目的影响(图 1.1中隐去了独特因子)。
图1.1 2因子6条目的公因子模型
EFA的目的是解释变量间的相关性或简化数据,因此进行EFA时需要从理论前提和实际数据两方面进行准备。其中,理论前提主要是指基于某理论假设或逻辑分析,可知所选择的各变量之间确实存在某种潜在结构;实际数据则是指各变量间存在一定程度的相关关系,如果变量间的相关系数太小,则很难抽取出公因子。通常而言,如果所有或大部分相关系数绝对值小于0.30,则不适合做EFA。此外,KMO值和Bartlett球形检验也时常用于EFA的适用性分析。如KMO值一般要求0.70以上,Bartlett球形检验则要求相关矩阵是非单位阵(非单位阵即卡方检验中的p值要小于0.05)。
常用的抽取公因子的方法主要包括主轴因素法(Principal Axis Factoring,PAF)和极大似然法(Maximum Likelihood,ML)。其中,PAF是将各公因子系数的平方和等同于该变量的共同度(h 2 ),而每一因子的系数平方和即因子负荷的平方和为该公因子对变量得分的方差贡献。PAF的基本思想是要求抽取的第一个公因子的系数平方和在总的共同度中的比例最大,第二个公因子在剩余的共同度中所占的比例最大,以此类推。
极大似然法的目的是使因子解能够更好地拟合观察变量之间的相关系数。ML假设数据服从多元正态分布,通过构建样本的似然函数,使似然函数达到最大,从而求得因子解,求解过程中相关系数采用特殊因子方差的倒数进行加权。
进行EFA时,确定保留多少个因子是非常重要的话题,如果过度抽取或抽取不足都存在问题,公因子个数的确定须先于因子负荷的确定。当前确定公因子数目的方法主要有:特征值大于1、方差解释率、碎石图、平行分析和最小平均偏相关系数检验。
①特征值大于1。进行EFA时,特征值大于1被广泛用作保留因子数的标准。特征值大于1即认为公因子的变异数至少须大于单一条目的变异数 1,才能实现化简数据的目的。该法则在实际应用中,因对相关矩阵进行线性转换,条目越多,抽出的特征值就越多,理论上大于1的特征值的比例也就越高,可能造成过度抽取。
②方差解释率。在保留公因子数是否合理上,研究者们会参考“方差解释率”这一指标。方差解释率即用保留的公因子的特征值之和除以条目数(实质为条目的总方差)来评价保留的公因子的方差能在多大程度上反映实际得分的方差。该比例越高,条目的方差就越能被公因子的方差所解释,则进一步理解为,一组条目分数间的共同变化,能用少数公因子的方差所代表。在实际应用中,关于方差解释率的具体大小,并没有绝对的数值。如在社会科学领域中,一般抽取的因子数应使累计方差解释率尽可能在60%以上。
③碎石图。利用碎石图确定保留公因子的数量,需先将公因子按大小顺序排列在直角坐标系中,横轴为公因子序号,纵轴为特征值,连接各点会形成一条特征值曲线。Cattell认为,若某公因子为随机因子,那么其特征值会在 1附近上下波动,因此会彼此接近。若公因子为非随机因子,有某种实质含义,其特征值就会相对1而言出现明显的递增,因此可以将某公因子陡然递增的那个点对应的横坐标作为合理保留的因子数,即碎石图检验。
图1.2 碎石图示例
在实际应用中,会对公因子的特征值按由高到低进行排序,将特征值曲线陡然降低并使其后的特征值曲线趋于平缓的点作为保留的因子数。
④平行分析。平行分析的理论基础是所保留的公因子的特征值须大于基于随机所产生的公因子的特征值。其目的是确保公因子造成的条目共变效应强于随机因素造成的条目共变效应,以确保抽取的公因子是有实质意义而非随机因素。平行分析本身的操作原理并不复杂,首先,根据实际进行因子分析的条目数,生成若干个(通常为大于200)随机数据的相关矩阵,条目间的相关都是随机因素造成,并按传统的分析策略计算这些随机矩阵的特征值,计算其平均数或第95百分位数。接着,计算实际进行因子分析数据的特征值。最后,按顺序比对二者,若基于实际数据计算所得特征值大于随机数据的平均特征值或第95百分位数,则表明该公因子的变异大于随机变异,有保留价值;若实际特征值小于等于随机数据的平均特征值或第95百分位数,则表示该公因子无保留价值。平行分析技术的优势在于其没有孤立地根据特征值本身的大小来判断是否对其进行保留,而是与随机因素进行对比后做出结论,符合因子分析化简数据的基本理念。
在实际应用中,需要研究者借助SPSS软件的“语法”(Syntax)自行编写分析命令(Hayton et al. 2004),或者采用Mplus 7.0 以上的版本在“Analysis”命令下,增添一个简单的语句“parallel=×××”即可(Muthén et al.,1998-2015)。另外,进行平行分析的R程序可参考孔明等人的研究(2007),SAS程序则可参考Liu和Rijmen(2008)的研究。
⑤最小平均偏相关系数检验。因子分析的直接目的是通过公因子的抽取,保证各条目分数间具有最佳的局部独立性。基于此,Velicer (1976)提出了最小平均偏相关系数检验法,以作为保留公因子数目的判断标准。最小平均偏相关系数检验是基于偏相关分析,将公因子的特征值从基于条目实得分数计算的相关矩阵中排除。按照由大到小的顺序,看排除到多少公因子特征值后,矩阵中的各偏相关系数的平方的平均值最小。越小的平均值,反过来表明条目分数间的共变,更多是由于公因子的变异造成,条目分数间在排除公因子变异后(特征值),其独立因子的变异是相对较少的。后续研究者发现,取各偏相关系数的 4次方后求平均值,会取得更准确的结果。实际应用中,可使用SPSS的“语法”(Syntax)自行编写命令执行该检验。
一旦确定因子的个数,接下来就要让因子的意义更加明显。此时,就要考虑在公共因子空间用代数变换的方法对因子轴进行变换,即因子旋转。通过因子旋转,让一部分变量在某个因子上的负荷尽量大,在其他因子上的负荷则尽量接近 0,即获得一个简单、容易解释的因子结构,以便于结果解释与因子命名。因子旋转的方法有很多种,大体上分为正交旋转(Orthogonal Rotation)和斜交旋转(Oblique Rotation)两种。其中,正交旋转假设各因子间不存在相关,而斜交旋转则没有这样的约束条件。在社会科学领域中,由于因子之间往往存在着某种关联性,因此大多数情况下推荐使用斜交旋转更符合实际。
实际应用中,SPSS软件中的正交旋转通常以Varimax为代表,斜交旋转则以Promax为代表,相应地Mplus软件中的斜交旋转以GEOMIN旋转为代表。
验证性因子分析(CFA)是瑞典阿帕萨拉大学的统计学家K. G. Jöreskog于 1969 年提出的,CFA弥补了探索性因子分析的不足,拓展了因素分析的研究范围和应用。CFA与EFA同为处理观测变量(条目)和潜在变量(因子)之间关系的方法,两者最明显的区别为:观测变量(条目)与潜在变量(因子)之间的关系是事先确定的还是事后推定的。EFA一般在分析之前并没有完全明确各观测变量(条目)与潜在变量(因子)之间的具体隶属关系,其关系是在完成分析之后确定的,故EFA具有数据驱动的特征。而CFA则是在分析之前就已经确定了观测变量与潜在变量之间的隶属关系,故CFA具有假设检验的特点,具有理论驱动的特征。通过图1.3和图1.4可直观地比较EFA和CFA的特点(引自王孟成,2014)。
图1.3 EFA示意图
图1.4 CFA示意图
图1.3是EFA示意图,由于各观测指标(条目)与因子之间尚未确定归属关系,因此8个观测指标测量两个斜交因子,而图1.4为CFA示意图,条目Y1—Y4归属(测量)因子1,另外四个条目(Y5—Y8)归属(测量)因子2,条目与因子之间的关系事先已确定。
CFA作为结构方程模型中的测量模型,可以有不同的表达形式,包括路径图、方程与矩阵。以单因子3条目模型为例子,表1.1中呈现了三种表达形式(引自王孟成,2014)。这三种表达形式是一致的,正因为如此存在着不同取向的结构方程建模软件。例如,AMOS以路径图的形式进行模型设置,软件再将路径图所承载的信息转换成方程进行数据运算。而LISREL则长于使用方程与矩阵。表1.1还呈现了Mplus的表达形式。与其他三种形式相比,Mplus表达式更加简洁,这主要是由于其他信息(如误差的信息)已预定为软件默认设置。
表1.1 验证性因素模型的表达形式
需要说明的是,在CFA中,测量方程中的均值部分即指标截距(τ x 和τ y )中心化后为0,所以在表达测量方程时通常省去,但在涉及均值结构的模型(如潜均值比较)时则需要均值结构部分。
通常LISREL符号系统将测量模型分成两类:内生变量和外生变量。内生变量指影响其的因素在模型之内,即内生变量是受其他变量影响的变量;而外生变量则是影响其他变量的变量,而影响外生变量的因素在模型之外。图1.5(引自王孟成,2014)中的左图为两个外生相关潜变量,各由 3个外生观测变量测量,右图为两个内生相关潜变量,各由 3个内生观测变量测量。两个测量模型不同参数的符号见表1.2(引自王孟成,2014)。
图1.5 2因子6条目的结构模型
表1.2 CFA模型中的符号系统
模型设定(Model Formulation)是指模型涉及变量、变量之间关系、模型参数等的设定。根据理论假设或过往研究所得,确定因子个数及条目与因子之间的隶属关系(如图 1.5)。由图1.5(引自王孟成,2014)可知,条目Y1—Y4 测量了因子 1,另外四个条目(Y5—Y8)测量了因子2,因子 1 和因子 2 之间存在相关。在心理与教育测验中,CFA常被用于测验编制或修订过程中的结构效度验证(DiStefano et al.,2005)。例如,流调中心抑郁量表(The Center for Epidemiological Studies Depression Scale,CES-D,Radloff,1977)为国外学者所编制的用于评估个体抑郁症状的测评工具,其有着较好的心理测量学属性。如果考虑将其引进到中国,则需要对其心理测量学属性在国内人群中的表现进行检验。鉴于该量表因子结构已经明确,条目隶属关系也得到充分论证,这时可直接选择做CFA。不过需要说明的是,选择做CFA的前提是承认该量表所测量的心理特质在国内人群中同样存在,否则研究者就需要根据国内人群的实际特点以及研究者本人对抑郁的操作性定义另外进行本土化的抑郁量表的构建和编制。
模型识别(Model Identification)是模型设定好了之后,需要检验所设定的模型是否能够识别,即理论模型是否存在合适的解。模型识别所关注的是,每个未知参数是否能从模型中得到唯一解,即是否能从观察数据得到唯一估计值。模型识别与否同样本协方差矩阵所提供的信息是否充足有关,通常将该规则称为t法则。假设某量表有17个条目(观测变量),可以提供17个方差和136个协方差,共计153个样本参数信息。如果数据提供的信息少于模型需要估计的自由参数t,则模型不能识别(Unidentified),此时p×(p+1)/2-t=df<0。如果数据提供的信息正好等于需要估计的自由参数,则模型充分识别(Just-identified),此时df=0;如果数据提供的信息多于需要估计的自由参数,则模型过度识别(Over-identified),df>0。由于不同的模型,设置的待估参数不同,所以识别规则也不同。除了t法则以外,模型识别的必要条件之一是为潜变量指定单位,否则任何模型都无法识别。实践中常用的设定方法有两种:固定任一指标负荷为 1和固定因子方差法为1。目前几乎所有的SEM分析软件都会自动为潜变量指定单位,在Mplus中,因子的第一个指标的负荷默认为1,当然也可以采用因子方差法(将因子方差设定为1)。另外,更多模型识别的规则和方法请参考王孟成(2014)的潜变量建模专著。
模型估计(Model Estimation)是极小化样本方差/协方差与模型估计的方差/协方差之间的差异。常用的估计方法以极大似然估计(Maximum Likelihood Estimate,MLE)为基础。MLE的性质包括:
①MLE估计具有无偏性;
②MLE估计具有一致性;
③MLE估计具有渐近有效性;
④MLE估计具有渐近正态性;
⑤MLE函数不受限于变量的测量尺度;
⑥在多元正态与大样本假设下,MLE拟合函数乘以n-1接近卡方分布。
需要说明的是,MLE估计法适用于正态分布下的连续变量。在数据非正态分布的情况下,可考虑使用两种MLE稳健估计,即稳健极大似然估计(Robust Maximum Likelihood Estimator,MLR)和均数调整似然估计(Mean Adjusted Maximum Likelihood Estimator,MLM)。
模型评价(Model Evaluation)用于评估样本方差-协方差矩阵与模型估计方差-协方差矩阵之间的差异。模型评价可以分为:卡方检验和近似拟合检验。如同传统的显著性假设检验一样,如果观测样本方差-协方差与模型估计方差-协方差之间的差异达到显著性水平(p<0.05),则模型将被拒绝;反之,如果差异不具有统计学意义(p>0.05),则模型将被接受。通常样本估计方差-协方差与样本方差-协方差之间的差异采用χ 2 检验,考虑χ 2 检验容易受到其他因素的干扰(如样本量),学者们提出了其他评价模型拟合的指标,这些指标统称为近似拟合检验。最常用的拟合指标有:比较拟合指数(Comparative Fit Index,CFI)、非规范拟合指数(Nonnormedfit Index,NNFI,也称Tucker-Lewis Index,TLI)、标准化残差均方根(Standardized Root Mean Square Residual,SRMR)和近似误差均方根(Root Mean Square Error Of Approximation,RMSEA)。通常将CFI和TLI大于0.90,SRMR和RMSEA小于0.08作为可接受的标准(Hu et al.,1999)。另外,更多模型拟合评价的指标请参考侯杰泰等(2004)的结构方程模型专著。
当样本方差-协方差矩阵与模型估计方差-协方差矩阵之间的差异显著时即模型拟合不好时,需要进行模型修正(Model Modification)。为了改善实际数据与理论模型之间的拟合效果,常采用修正指数(Modification Indices,MI)(Sörbom,1989)作为诊断指标来帮助修正模型设定。修正指数与模型的固定参数密切相连,一个固定参数的MI值相当于自由度df=1的模型卡方值,即如果把模型中某个受限制的固定参数改为自由参数,则模型卡方值将减少,相当于为该参数的MI估计值。如果一个MI很高,则表示相应的固定参数应该设定为自由估计以提高模型的拟合。最近,国内学者潘俊豪等(2017)将贝叶斯Lasso引入验证性因子分析中的模型修正。
需要说明的是,尽管模型修正能明显地提高实证数据与理论模型之间的拟合情况,但在考虑MI时最好要有一定的理论依据或逻辑依据,不能仅靠软件提示进行模型修正,还需要考虑在逻辑上或理论上的可行性。