社会及行为科学研究法(资料分析)(txt+pdf+epub+mobi电子书下载)


发布时间:2020-07-01 16:17:30

点击下载

作者:毕恒达,刘长萱,瞿海源,杨国枢

出版社:社会科学文献出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

社会及行为科学研究法(资料分析)

社会及行为科学研究法(资料分析)试读:

社会及行为科学研究法

(资料分析)作者:毕恒达,刘长萱,瞿海源,杨国枢排版:KingStar出版社:社会科学文献出版社出版时间:2013-07-01ISBN:9787509744987本书由社会科学文献出版社授权北京当当科文电子商务有限公司制作与发行。— · 版权所有 侵权必究 · —社会及行为科学研究法主编瞿海源 毕恒达 刘长萱 杨国枢总论与量化研究法(一)王文中

学历:美国加州大学伯克利分校计量方法与评鉴博士

现职:香港教育学院心理研究学系讲座教授吴重礼

学历:美国纽奧良大学政治学博士

现职:中研院政治学研究所研究员杜素豪

学历:美国密歇根州立大学社会学博士

现职:中研院调查研究专题中心副研究员林文瑛

学历:日本庆应大学教育心理学博士

现职:中原大学心理学系教授兼心理科学研究中心主任邱铭哲

学历:“清华大学”社会学研究所中国研究学程硕士

现职:新境界文教基金会安全与战略研究中心研究员张苙云

学历:美国约翰霍布金斯大学社会学博士

现职:中研院社会学研究所研究员毕恒达

学历:美国纽约市立大学环境心理学博士

现职:台湾大学建筑与城乡研究所副教授陈春敏

学历:中正大学心理学博士

现职:成功大学心理学系博士后研究员陈振宇

学历:美国纽约州立大学石溪分校心理学博士

现职:成功大学心理学系教授章英华

学历:美国普林斯顿大学社会学博士

现职:中研院社会学研究所研究员黄纪

学历:美国印第安纳大学政治学博士

现职:政治大学政治学系讲座教授兼选举研究中心合聘研究员杨国枢

学历:美国伊利诺伊大学心理学博士

现职:中原大学心理科学研究中心暨心理学系讲座教授刘长萱

学历:美国匹兹堡大学统计与心理计量博士

现职:中研院统计科学研究所研究员郑夙芬

学历:政治大学边政研究所硕士

现职:政治大学选举研究中心副研究员谢雨生

学历:美国宾州州立大学乡村社会学博士

现职:台湾大学生物资源暨农学院生物产业传播暨发展学系特聘教授瞿海源

学历:美国印第安纳大学社会学博士

现职:中研院社会学研究所研究员、台湾大学社会学系教授苏国贤

学历:美国哥伦比亚大学社会学博士

现职:台湾大学社会学系教授兼主任质性研究法(二)王增勇

学历:加拿大多伦多大学社会工作学系博士

现职:政治大学社会工作研究所副教授林本炫

学历:台湾大学社会学博士

现职:联合大学客家研究学院经济与社会研究所副教授林国明

学历:美国耶鲁大学社会学博士

现职:台湾大学社会学系副教授柯志明

学历:美国纽约州立大学(宾汉顿)社会学博士

现职:中研院社会学研究所特聘研究员徐振国

学历:美国俄亥俄州立大学政治学博士

现职:东吴大学政治学系教授毕恒达

学历:美国纽约市立大学环境心理学博士

现职:台湾大学建筑与城乡研究所副教授汤京平

学历:美国南加州大学公共行政学系博士

现职:政治大学政治学系教授兼主任吴嘉苓

学历:美国伊利诺伊大学香槟分校社会学博士

现职:台湾大学社会学系副教授周平

学历:美国社会研究新学院社会学博士

现职:南华大学应用社会学系主任兼所长黄应贵

学历:英国伦敦大学伦敦政治经济学院人类学博士

现职:中研院民族学研究所研究员杨国枢

学历:美国伊利诺伊大学心理学博士

现职:中原大学心理科学研究中心暨心理学系讲座教授刘长萱

学历:美国匹兹堡大学统计与心理计量博士

现职:中研院统计科学研究所研究员萧阿勤

学历:美国加州大学圣地亚哥校区社会学博士

现职:中研院社会学研究所研究员兼副所长瞿海源

学历:美国印第安纳大学社会学博士

现职:中研院社会学研究所研究员、台湾大学社会学系教授蓝佩嘉

学历:美国西北大学社会学博士

现职:台湾大学社会学系教授资料分析(三)于若蓉

学历:台湾大学经济学博士

现职:中研院调查研究专题中心研究员兼执行长王鼎铭

学历:美国德州大学达拉斯分校政治经济学博士

现职:台湾大学政治学系副教授林季平

学历:加拿大麦克马斯特大学地理学博士

现职:中研院地理资讯科学研究专题中心副研究员邱皓政

学历:美国南加州大学心理计量学博士

现职:台湾师范大学管理学院副教授翁俪祯

学历:美国加州大学洛杉矶分校心理学博士

现职:台湾大学心理学系教授陈振宇

学历:美国纽约州立大学石溪分校心理学博士

现职:成功大学心理学系教授程尔观

学历:美国佛罗里达州立大学统计学博士

现职:中研院统计科学研究所研究员毕恒达

学历:美国纽约市立大学环境心理学博士

现职:台湾大学建筑与城乡研究所副教授黄旻华

学历:美国密歇根大学安娜堡分校政治学博士

现职:美国德州农工大学政治系专任助理教授黄毅志

学历:东海大学社会学博士

现职:台东教育大学教育学系教授杨国枢

学历:美国伊利诺伊大学心理学博士

现职:中原大学心理科学研究中心暨心理学系讲座教授刘长萱

学历:美国匹兹堡大学统计与心理计量博士

现职:中研院统计科学研究所研究员蔡蓉青

学历:美国伊利诺伊大学心理学博士

现职:台湾师范大学数学系教授谢雨生

学历:美国宾州州立大学乡村社会学博士

现职:台湾大学生物资源暨农学院生物产业传播暨发展学系特聘教授瞿海源

学历:美国印第安纳大学社会学博士

现职:中研院社会学研究所研究员、台湾大学社会学系教授

总目次

总论与量化研究法(一)

第一章 社会科学研究方法的发展

第二章 研究伦理

第三章 研究设计

第四章 研究文献评阅与研究

第五章 实验研究法

第六章个体发展的研究方法

第七章 抽样调查研究法

第八章 调查资料库之运用

第九章 焦点团体研究法

第十章 古典测量理论

第十一章 试题反应理论

第十二章 社会网络分析

第十三章 质量并用法质性研究法(二)

第一章 人类学田野工作

第二章 访谈法

第三章 质性个案研究:扎根理论与延伸个案法

第四章 论述分析

第五章 叙事分析

第六章 历史研究法

第七章 跨学科的历史研究法

第八章个案研究

第九章 内容及文本内容分析

第十章 建制民族志:为弱势者发声的研究取径

第十一章 质性资料分析软件资料分析(三)

第一章 因素分析

第二章 回归分析

第三章 类别依变项的回归模型

第四章 结构方程模型

第五章 多层次分析

第六章 多向度标示法

第七章 固定样本追踪资料分析

第八章 缺失值处理

第九章 整合分析

第十章 地理资讯系统应用

第十一章 职业测量方法

序言

《社会及行为科学研究法》这套书原来是由杨国枢、文崇一、吴聪贤和李亦园四位教授编辑,于 1978年1月出版,三十多年来,一直广为使用,印行了三十刷以上,影响实在非常深远。近二三十年来社会科学研究方法创新不断,社会科学研究使用的方法也起了很大的变化。原书的主编杨国枢教授和出版这部书的东华书局,希望出版一个全新的第二版,于是在 2008年邀约了瞿海源、毕恒达、刘长萱、洪永泰参与规划出版事宜。

台湾社会科学,特别是社会学和政治学,在 1980年之后,尤其是在 1990年之后发展快速,到 2000年大体发展成熟。在本书第一版出版时,正在 1980年之前,当时台湾的社会学和政治学几乎还在发展初期,如陈义彦 (2010)指称:“……这一时期的调查研究方法,如抽样方法采非随机抽样方式,统计分析方法也只采次数分配、卡方检定,都仅是粗浅的分析,且也不尽正确,所以严格说起来,谈不上是高度科学化的研究。”于是本书第一版许多研究方法还是由心理学者和教育学者撰写,占了作者之六成左右。在发展成熟之后,台湾社会学者和政治学者在研究方法上学有专精的很多,第二版就有六成的章节是由社会和政治学者担纲写成。所以全书内容是以社会科学的研究和分析方法为主,不过心理和教育学者撰写的也还是有百分之十七,因此书名依旧延续第一版,包括社会和行为科学。

在规划出版本版新书初期,先经过编辑小组两个多月的商议,初步草拟了一份主题纲目,列出各章主题。最后汇整成一份问卷,邀请在各大学教社会科学研究方法的教授近二十位评估,就初步提议纳入的主题逐项评分,在“最优先”“优先”和“非必要”三个选项中勾选,同时也推荐各章的撰稿者。结果有王业立、林继文、李明璁、苏国贤、关秉寅、吴嘉苓、蓝佩嘉、吴重礼、黄纪、杨国枢、毕恒达、刘长萱、翁俪祯、黄昱华、黄莉等十五位教授回复。最后,以最优先给 2 分,优先给 1 分,非必要为 0 分来统计。调查结果,在研究方法方面,依序选出抽样问卷调查、民族志、扎根理论与个案延伸法、访谈法、历史研究法、叙事分析、实验法、焦点团体法、网络分析、个案研究、论述分析、地理信息系统与个体发展研究法等十三个主题。在资料分析方面则依序选出测量理论、试题作答理论、因素分析、内容分析与文字计数方法、事件分析、类别数据分析、多层次分析、回归分析和结构方程模式、调查资料库之运用等十个主题。在论文写作和研究伦理方面选出研究文献评阅与研究、研究伦理两个主题。最后再经编辑小组商议,在研究方法方面追加个体发展研究法和建制民族志,在数据分析方面另外再加缺失值处理、长期追踪数据分析、多向度标示法、职业测量和质性研究分析计算机软件。最后,编辑群就全书主题衡量,决定增加综合分析、质量并用法二章。一方面强调针对既有研究从事深度的综合分析,以获致更完整而丰富的研究成果,另一方面则提倡质量并用法,希望能消解一点量化与质性研究之间的严重争议。

1980年代,尤其是在 1990年代以后,获有博士学位的社会科学学者人数激增,这些社会科学博士在从事研究时,就采用了很多不同的方法。在其博士教育养成过程中,大部分都研习了 1980年代以来美欧学界发展出来的新方法,甚至博士论文研究就采用新的方法,到后续的学术研究中大多也就继续采用这些新方法。大体而论,在量化研究方面,比较多更精致、更高阶的统计分析。这个发展趋势由本书新旧两版的差异看得很清楚,在 1978年版量化资料分析只有因素分析和因径分析两章,在新版里就有因素分析、结构方程模式、复回归分析、类别数据分析、多层次分析、多向度标示法分析、长期追踪数据分析以及缺失值处理,增加了六章之多。虽然其中两章,即因素分析和因径分析在两版中都有,但内容也大不相同,新版有更新的分析方法,因径分析也由结构方程模式取代。

在 1980年之后,台湾社会科学界从事大规模的全台抽样调查,1983年政大成立选举研究中心,台大成立政治体系与变迁研究室,长期进行选举与政治的研究调查,中研院自 1984年开始进行台湾社会变迁基本调查,1997年启动台湾家庭动态调查,2000年开始进行台湾教育长期追踪调查和青少年追踪研究,几个大学选举研究中心在 2001年合作进行台湾选举与民主化调查研究。这些调查研究都是全台的抽样调查,而且也都是长期持续进行。台湾社会科学界自 1980年代中期开始这么多全台大规模社会抽样调查,显示调查研究在台湾已经很成熟,也显示量化研究是台湾社会科学的主力。大约在 2000年之后,社会学和政治学者在既有的大规模全台调查研究的基础上,又开展了几项与其他国家同步进行的调查研究。由于这些大规模的调查逐年累积了大量资料,中研院调查研究中心于 1994年着手建立学术研究调查资料库,除了汇集上述各种全台大样本调查资料外,也全面收集各种调查资料,包括政府的调查和个别学者的规模较小的调查,建立资料库,提供学术研究使用,到目前为止这个资料库已汇集了 1001个调查资料文件。

质性研究方法在过去三十年崛起,台湾学者在 1980年初引入扎根理论,随后又陆续引入个案延伸法、历史研究法、访谈法、叙事分析、论述分析、个案研究法等等,再加上经典的人类学田野调查法。与本书旧版只有两章相比,增加了六章。社会科学研究加重使用质性研究方法,不只是显示方法本身的差异,更是在方法论和认识论上的重大歧异。也因此形成了量化与质性研究典范性的争议,甚至在台湾形成研究方法和方法论上的代理人战争。质性研究和量化研究几乎水火不容,或至少互不兼容,相互不了解。也因此,本书在第一册第一章《社会科学研究方法历史》中也深入探究了质性和量化研究方法争议的问题,在最后特地约请黄纪教授撰写《质量并用法》 (mixed method)一章,希望调和量化与质性研究对立乃至敌对的状况。

在编辑上,本书特别强调社会科学研究的基本精神和伦理,列入“研究设计”“研究伦理”和“文献评阅”三章,是为总论的一部分,置于第一册最前面。研究伦理在许多研究方法教科书中都排在最后,或聊备一格,我们把它排在最前面,就在于揭示研究伦理是极关重要的研究基本。撰写研究论文,作者都必须做文献探讨,但有不少研究生和少数学者只是做做形式,我们特地列入一章“文献评阅”,说明进行文献探讨的实质意义和应有的做法。

在全书各章书稿完成之后,编辑小组试图重新编排,最后,提出编辑成上下两册和三册两个方案,经征询全体作者,绝大多数赞成分为三册,因分册逻辑清楚,第一册为总论与量化研究法,第二册为质性研究法,第三册为资料分析。编辑小组和一些作者担心把量化和质性研究方法分为两册,可能会突出了量化与质性研究之争。我们最后还是这样分三册来出版,当然不是要制造量化质性对立,我们反倒是希望读者在深入研习各种质性与量化研究方法之后,能够对各种研究方法更宽容、更具同理心。我们也衷心建议授课的教授,在研究方法的课程里,一定要兼顾量化和质性研究方法,至少要让学生有运用各种研究方法的基本能力,也要让学生能欣赏运用各种不同研究方法所获致的学术研究成果。

在本书第一版于 1970年年底出版时,社会科学研究方法的书非常少,当时汇集了学者撰写社会科学、心理学和教育研究的基本方法,大体上很完备,也因此这部书发行三十多年来仍然是研究方法课程和修习研究方法的重要参考书籍。如今社会科学逐渐成熟,有关研究方法的书籍,不论翻译或编着都为数甚多。我们编辑出版《社会及行为科学研究法》这部书的第二版,除了上述在内容上全面调整外,更强调尽可能汇聚各种不同的研究方法,同时在各章编写过程中特别加重方法背后的观念,及方法的应用时机,并以台湾的例子说明,借以区隔此书与坊间其他方法学书籍的差异。

本书凝聚了台湾社会科学领域一群活跃及具有独特风格的学者共同完成。每位学者在各自的专章中,除了传达专业知识外,也透露各自的学术理念。读者在阅读此书时,可顺便领略社会科学者们所代表当前台湾的学术文化,这一部分应是这个修订版和原版最大的差异。瞿海源、毕恒达、刘长萱、杨国枢于2011年12月第一章因素分析一前言

因素分析(factor analysis)是一套用来简化变项、分析变项间的群组与结构关系,或寻找变项背后共同影响因素的多变数统计技术。一组庞杂的测量数据经由因素分析可以迅速有效地简化成几个比较简单的分数来加以应用,因此广受实务领域的欢迎。又因为因素分析可用来检验测量工具、探讨抽象概念或潜在特质的内涵,因此更为学术研究者所重视。在某些社会与行为科学领域(例如心理学、社会学、教育学),研究者经常必须去估计诸如智力、创造力、忧郁、工作动机、组织认同、学习满意度等抽象构念,进而探究这些构念之间的关系。此时首要工作即需证实研究者所设计的测验工具的确能够用以测量抽象构念,将一组具有共同特性或有特殊结构关系的测量指标,抽离出背后构念并进行因素关系的探究的统计分析技术,最有效的工具便是因素分析。

举例来说,如果今天某位研究者手中拥有某年度中学应届毕业生参加大学入学考试的国文、英文、社会、数学、物理、化学等六科成绩分数,若他计算这六科分数之间的相关系数之后,发现国文、英文、社会三科之间相关比较高,数学、物理与化学另三科的相关也比较高,那么他就非常可能会主张前三科是比较类似的学科,后三科是另外一组比较类似的学科。如果他进行了因素分析,得到支持他的想法的结果,于是他可以将前三科高度相关的科目取名为“文科能力”,后三科则取名为“理科能力”;最后,他以“某种方式”将这六科成绩重新组合成一个“文科能力”与一个“理科能力”分数。此时,“文科能力”与“理科能力”这两个用来代表这六科考试成绩的新概念就是因素(factor),经过整合后的两个新分数就是因素分数,可用来取代原来的六科成绩。原来的六科成绩称为外显变项或测量变项,所形成的因素分数则是潜在变项。在本章中,构念、因素与潜在变项三个名词被视为相似的概念而可相互替代。此一因素分析程序所得到的结果若与理论文献的观点一致,或具有逻辑或实务上的合理性,研究者即可宣称建立了一个双因素模型,并将资料加以整合简化来进行实务上的应用。(一)因素分析的功能

具体言之,因素分析的主要功能有三:第一,因素分析可以协助研究者简化测量的内容。因素分析法最重要的概念,即是将一组变项之间的共变关系予以简化,使得许多有相似概念的变项,透过数学关系的转换,简化成几个特定的同质性类别,来加以应用。例如前述的范例中,研究者计算得出学生入学考试的“文科能力”与“理科能力”分数来进行分发的依据。

第二,因素分析能够协助研究者进行测量效度的验证。利用一组题目与抽象构念间关系的检验,研究者得以提出计量的证据,探讨潜在变项的因素结构与存在的形式,确立潜在变项的因素效度(factorial validity)。例如国文、英文与社会三科会具有高相关,使得在因素分析中被视为同一类型的数据,如果从学理来看,这三个分数会有高相关是因为同时受到人类认知功能当中的语文能力所影响,相对的,数学、物理、化学三科会具有高相关,也正是因为受到人类认知功能当中的逻辑或数字能力所影响。此时,研究者透过因素分析这套统计程序所得到的双因素结构,也获得理论上的支持,在测验领域中,可作为这六科成绩可以测得两种潜在认知能力的构念效度证据。

最后,因素分析可以用来协助测验编制,进行项目分析,检验试题的优劣。同时可以针对每一个题目的独特性进行精密的测量,比较相对的重要性。如果是在问卷编制过程中,因素分析可以提供给研究者这些测量题项的群组关系,使研究者得以选用具有代表性的题目来测量研究者所关心的概念或特质,因而得以最少的题项,进行最适切的评估测量,减少受测者作答时间,减少疲劳效果与填答抗拒。(二)探索性与验证性因素分析

传统上,因素分析被用来简化资料,寻找一组变项背后潜藏的因素结构与关系,事前研究者多未预设任何特定的因素结构,而由数据本身来决定最适切的因素模型,因此称为探索性因素分析(exploratory factor analysis,EFA),亦即一种资料推导的分析。相对的,如果研究者的目的是在检验他人所提出的模型是否适切,或是在发展测量题目时依据某些理论文献来编制特定结构的量表,称为验证性因素分析(confirmatory factor analysis,CFA)(Jöreskog,1969;Long,1983),它具有理论检验与确认的功能,因此被视为是一种理论推导的分析。从发展的先后来看,EFA的原始构想早在二十世纪初就被提出,百年来广为研究者运用在构念的估计与检验。CFA则随着结构方程模式(Jöreskog & Sörbom,1993)的成熟而逐渐流行。CFA是SEM当中的一种次模型,用以定义并估计模型中的潜在变项,因此又称为测量模型,与其他测量模型整合之后,即可建立一个完整的结构方程模型来探讨潜在变项的影响机制。

从技术层次来看,EFA与CFA的实质任务都是在定义并估计潜在变项,验证结果均可作为构念是否具有信效度的证据,两者最大的不同在于潜在变项发生的时点:对EFA而言,潜在变项的内容与结构为何,事前无法确知,经过反复估计后才能萃取得出,因此是一种事后(post-hoc)的结果。相对而言,CFA当中的潜在变项其结构与组成必须事先决定,因此是一种先验(priori)的分析架构。如果说EFA的价值在于理论的发现,那么CFA的价值则在于理论的验证,两者在学术研究中均扮演重要的角色。

在此要强调一点的是,不论以EFA或CFA所得到的构念估计或效度证据,都是一种统计现象,对于构念的实质或本体并没有直接进行检证。因此,CFA与EFA的结果虽可作为构念估计的证据,研究者仍须尽可能以其他的构念效度检验程序(例如实验方法与其他统计策略)来提出更充分的构念效度证据,才能确保一个测验所测得的分数确实能够真实反应研究者所欲测量的构念。

更基本的一个思考方向,是研究者必须清楚知道自己的研究目的与需要,因为EFA与CFA两者的目的不同,适用时机也不一样。EFA与CFA各有所长也各有缺点,后起之秀的CFA欠缺EFA具有寻觅、探询复杂现象的弹性,EFA则没有强而有力的理论作为后盾。两者皆无法取代对方,但对两种技术的熟稔对于研究者探究科学命题具有相辅相成的功效,因此两者均要熟悉。(三)主成分分析与因素分析

除了EFA与CFA的对比,人们往往会把因素分析与主成分分析(principle component analysis,PCA)两者混为一谈。在现象上,PCA与EFA都是资料缩减技术,可将一组变项计算出一组新的分数,但在测量理论的位阶上两者却有不同,PCA试图以数目较少的一组线性整合分数(称为主成分)来解释最大程度的测量变项的变异数,EFA则在寻找一组最能解释测量变项之间共变关系的共同因素,并且能够估计每一个测量变项受到测量误差影响的程度。相对之下,PCA仅在建立线性整合分数,而不考虑测量变项背后是否具有测量误差的影响。

基本上,会使用因素分析来进行研究的人,所关注的是为何测量数据之间具有相关。是否因为测量变项受到背后潜藏的抽象现象或特质所影响而产生关联,研究者的责任并非仅在进行资料缩减,而是如何排除测量误差的干扰,估计测量变项背后所存在的因素结构,因此EFA所得到的萃取分数较符合潜在变项之所以称为“潜在”的真意。相对之下,PCA所得到的组合分数仅是一种变项变换后的结果,而不宜称之为“潜在”变项。更具体来说,虽然两种方法都是应用类似的线性转换的统计程序来进行资料缩减,但PCA的资料缩减所关心的是测量变项的变异数如何被组合分数有效解释,而EFA则是进行因素萃取,排除测量误差以有效解释测量变项间的共变项。关于这两种方法的统计原理差异将在下一节说明。

从方法学角度来看,PCA与EFA的一个重要差异在于未定性(indeter-minacy)的威胁(Fabrigar,Wegener,MacCallum & Stranhan,1999;黄财尉,2003)。PCA中的共同成分估计并非一种萃取而是一种变项变换,因此对于新变项的数值与相对应的测量变项的组成模式是一种明确的数学模式,换言之,最终得到的矩阵估计是一种明确的数学解。相对之下,EFA在估计潜在变项时,反复进行迭代估计以求取最佳结构关系时,对于潜在变项(包括共同因素与独特因素两者)的估计解是一种统计解。当研究者改变萃取方式、估计算则、对分配的假设,乃至于样本的变换、变项的增减改变,都会改变因素结构与因素分数的估计,这种未定性的问题是因素分析法最大的威胁。

从统计分析的角度来看,PCA的一个特点是不需要进行转轴(反倒是转轴会改变各个组合变项的解释变异以及与测量变项的关系,造成主成分分数的改变与扭曲),同时对于资料也不需假设其分配特征。因为不论测量变项的数值呈现何种分配,主成分分析的变项变换都可以得到估计解(除非是研究者欲对PCA的参数进行显著性考验才需要对资料分配设定常态假设)。相对之下,EFA必须进行因素转轴,重新计算因素与测量变项间的对应权数的数值,才能获得对于因素的正确解释,并能够进行恰当的命名。此外,由于FA假设观察变项的共变项受到真分数的影响,为能进行最大概似法求解,FA中的资料分配必须符合常态分配假设,因此对于因素分析的进行,在统计处理上有较高的限制与要求。有关PCA与EFA的各种差异比较详列于表1-1。表1-1 主成分分析与因素分析的比较

然而尽管主成分分析与因素分析有诸多不同,但是仍有学者主张两者不必过度区分而可通用,例如Velicer与Jackson(1990)即点出在一般情形下以PCA所得到的估计结果与EFA相近,当因素数目偏高时,两者的差异才会趋于明显。Snock与Gorsuch(1989)也发现当测量变项增加时,两者的差异也会降低。重要的是,因素分析受到未定性的威胁甚大,发生不寻常解(例如共同性大于1的Heywood case)的机会较大,在研究实务上PCA未必居于下风。如果研究者所从事的是试探性研究或先导研究时,兼采这两种技术并加以比较,或许可以得到更多的参考资讯。参考方块 1-1:社经地位是潜在变项吗?

社经地位是社会科学研究者最早提到的研究变项之一,因为SES与许多重要的社会、心理、教育现象有密切关系。一般而言,SES与教育、收入以及职业声望三者有关,但是如何从这三个指标产生一个SES变项呢?却是一个棘手的问题。

基本上,从现象的逻辑关系来推理,我们很难相信某一个人是因为其社经地位变高,所以他的教育程度、收入或者职业声望才会变高。反过来说,当一个人的教育水准、收入或者职业声望变高时,他的社经地位才会变高;也就是说,三个指标是“因”,SES是“果”。但是从另一个角度来看,通常一个人能受到良好教育时,他们的收入也高,职业的声望也高,三者具有中高度的相关,从因素分析的角度来看,这三个指标会有相关,是因为受到同一个影响因素的影响,那就是SES,所以,SES应该是三个指标的“因”。

前述的争议焦点其实很明显,亦即到底是SES决定了教育、收入、职业声望,还是这三者决定了SES?很明显,正因为SES难以界定与观察,同时并没有一个“实体”称为SES,因此SES毋庸置疑是一个无法直接测量的潜在变项。但是,如果指标先于SES存在,亦即SES这个潜在变项是被观察变项所影响,此时被称为形成性测量模型(formative measurement model),三个指标被称为形成性指标(formative indicators),在技术上应使用主成分分析,将三者合成一个分数,并使之最能解释这三个指标的变异。相反的,如果SES先于指标存在,亦即三个指标是SES这个潜在变项的反映或投射,此时被称为反映性测量模型(reflective measurement model),三个指标被称为反映性指标(reflective indicators),在技术上应使用因素分析,萃取出能够解释三者相关最大程度的潜在变项,定义成SES。

学者们对于SES这个潜在变项到底是反映性还是形成性各拥其主。在实证研究中,这两种策略都可以看到许多实际应用的例子。其他类似的概念还包括满意度测量、绩效指标等。在心理计量领域,形成性与反映性争议从探索性因素分析延烧到验证性因素分析,有兴趣的读者可以参看Howell,Breivik与Wilcox(2007)与其他学者的精彩辩论。另外,Petter,Straub与Rai(2007)的文章则详细列举这两种模型的差异与操作程序。不过,如果再问一个问题:SES的三个指标,究竟是应该问受测者他自己的状况呢,还是问他所身处的家庭呢?对大人要怎么问?对青少年要怎么问?看来,SES这个概念,似乎真的是一个令人难以捉摸的变项!二因素分析的原则与条件(一)构念与因素分析

因素分析的概念来自于Spearman(1904)对于智力测验各分测验得分之间所具有的特殊相关结构的好奇。就好比先前所举出的六科成绩得分的例子类似,Spearman认为测验分数之间所存在的特殊的相关结构,是因为背后存在着看不到的潜在心理特质(亦即构念)所造成,因此提出因素分析的原始概念,后来经过许多学者专家共同投入研究而逐渐发展成熟。

所谓构念是指无法直接观测的抽象特质或行为现象,为了能够研究这些潜在的特质或现象,研究者必须尝试以不同的方法来进行测量,此时测量得到的资料能够真实有效地反映这些构念的程度称为构念效度,在各种分析策略中,因素分析是少数能够用来萃取构念的统计技术,因此因素分析得到的因素效度证据,普遍被学者接受可用来作为支持构念存在的证据之一。由此可知,因素分析在涉及构念研究的学术领域中具有重要的地位。(二)因素分析的基本原则

因素分析的特性之一,即可以处理测量误差,使测量数据能够有效反映构念的内涵。由于构念具有抽象、无法直接观察的特性,利用单一测量得分无法全然观察到抽象构念,而必须以多重测量分数来抽取出潜在的构念。此一原则称为多重指标原则。每一个指标(或题目)仅能“部分反映”构念的内涵,干扰构念测量的额外因素则被定义成测量误差,是受到构念以外的随机因素所造成的。相对之下,各指标的共同部分则反映了构念的程度高低,亦即真分数(true score)。测量误差与真分数变异两者构成了实际测量分数的变异,此一观点即为古典测量理论(Lord & Novick,1968)。因素分析的运算原则,即在排除多重指标背后的误差部分来估计共同部分,将之称为因素,借以反映构念的内涵。

从统计的原理来看,潜在变项估计背后存在一个局部独立原则(principle of local independence)。亦即如果一组观察变项背后确实存在潜在变项,那么观察变项之间所具有的相关,会在对潜在变项加以估计的条件下消失,换言之,当统计模型中正确设定了潜在变项后,各观察变项即应不具有相关,具有统计独立性;相对的,如果测量变项的剩余变异量中仍带有关联,那么局部独立性即不成立,此时因素分析得到的结果并不适切。

最后,因素分析的运用有一个重要的方法学原则,称为简效原则(principle of parsimony)。在因素分析当中,简效性有双重意涵:结构简效与模型简效,前者系基于局部独立性原则,指观察变项与潜在变项之间的结构关系具有简单结构(simple structure)(Mulaik,1972);后者则是基于未定性原则,对于因素模型的组成有多种不同方式,在能符合观察数据的前提下,最简单的模型应被视为最佳模型。也因此,因素分析当中所存在的各种转轴方法,目的即在寻求因素结构的最简单原则,进而定义出最符合真实的潜在变项结构,作为构念存在的证据。(三)因素分析的资料特性

到底一组测量变项适不适合进行因素分析,测量变项背后是否具有潜在构念,除了从理论层次与题目内容两个角度来推导之外,更直接的方式是检视测量变项的相关情形。如果变项间的相关太低,显然不容易找出有意义的因素。因此,相关矩阵的检视即成为判断是否适宜进行因素分析的重要程序。一般有下列几种方法可以用来判断相关矩阵的适切性。

第一种方法是Bartlett的球形检定。如果球形检定达到统计显著水准,表示测量变项的两两相关系数中,具有一定程度的同质性相关。当某一群题目两两之间有一致性的高相关时,显示可能存有一个因素,多个群落代表多个因素。如果相关系数都偏低且异质,则因素的抽取愈不容易。

第二种方法是利用净相关矩阵来判断变项之间是否具有高度关联,当测量变项的两两相关在控制其他观察变项所求得的净相关(partial correlation)(净相关矩阵称为反映像矩阵),表示各题之间具有明显的共同因素;相对的,若净相关矩阵有多数系数偏高,表示变项间的关系不大,不容易找到有意义的因素。反映像矩阵的对角线称为取样适切性量数(measures of sampling adequacy,MSA),为该测量变项有关的所有相关系数与净相关系数的比较值,该系数愈大,表示相关情形良好,各测量变项的MSA系数取平均之后即为KMO量数(Kaiser-Meyer-Olkin measure of sampling adequacy),执行因素分析的KMO大小判准如表1-2(Kaiser,1974)所示。表1-2 KMO统计量的判断原理

第三种方法是共同性(communality)。共同性为测量变项与各因素相关系数的平方和,表示该变项的变异量被因素解释的比例,其计算方式为在一变项上各因素负荷量平方值的总和。变项的共同性愈高,因素分析的结果就愈理想。关于共同性的概念与应用将在后续的章节中介绍。(四)样本数的决定

在因素分析当中,样本的选取与规模是一个重要的议题。如果样本太小,最直接的问题是样本欠缺代表性,得到不稳定的结果。从检定力的观点来看,因素分析的样本规模当然是愈大愈好,但是到底要多大,到底不能多小,学者们之间存在不同甚至对立的意见(参见MacCallum,Widaman,Zhang & Hong,1999的整理),甚至于过大的样本也可能造成过度拒绝虚无假设的情形,而有不同的处理方法(例如切割样本进行交叉复核检验)。

一般而言,对于样本数的判断,可以从绝对规模与相对规模两个角度来分析。早期研究者所关注的主要是整个因素分析的样本规模,亦即绝对样本规模。综合过去的文献,多数学者主张200是一个重要的下限,Comrey与Lee(1992)指出一个较为明确的标准是100为差,200还好,300为佳,500以上是非常好,1000以上则是优异。

相对规模则是取每个测量变项所需要的样本规模(每个变项,个案数比例)来判断,最常听到的原则是10∶1(Nunnally,1978),也有学者建议20∶1(Hair,Anderson,Tatham & Black,1979)。一般而言,愈高的比例所进行的因素分析稳定度愈高,但不论在哪一种因素分析模式下,每个因素至少要有三个测量变项是获得稳定结果的最起码标准。

近年来,研究者采用模拟研究发现,理想的样本规模并没有一个最小值,而是取决于几个参数条件的综合考虑,包括共同性、负荷量、每个因素的题数、因素的数目等。例如最近的一项模拟研究,de Winter,Dodou与Wieringa(2009)指出,在一般研究情境中,如果负荷量与共同性偏低而因素数目偏多时,大规模的样本仍有需要;但是如果因素负荷量很高,因素数目少,而且每一个因素的题目多时,在50以下的样本数仍可以获得稳定的因素结构。例如在因素负荷量达到0.80,24个题目且只有一个因素的情况下,6笔资料即可以得到理想的因素侦测。

当因素结构趋向复杂时,样本规模的需求也会提高。过去研究者习惯以每因素题数比例(p/f;p为题数,f为因素数目)的经验法则来决定因素结构的复杂度,当每一个因素的题目愈多时,样本数也就需要愈多。但de Winter,Dodou与Wieringa(2009)的研究发现,p/f比例本身并非重要的指标,而是这两个条件分别变动的影响。当此一比例固定时,题数与因素数目的变动所造成的样本量需求必须分开检视,例如当因素负荷量为0.8,且在每一个因素有6题的此一比率下(p/f=6),能够稳定侦测因素的最低样本数,在二因子(12/2)时为每一题需要11笔观察值,但在48/8时则需要47笔观察值。这显示愈复杂的因素结构需要愈高的样本数,而非仅受限于特定的因素、题数比例。三因素分析的统计原理

如果熟悉心理测验的读者,对于表1-3的题目应不陌生。这十题是Rosenberg(1965)所编写用来测量自尊(self-esteem)的题目。一个高自尊的人,会在这十个题目上得到高分(反向题需经反向编码来计分),反之,低自尊者会得低分。或许每个题目各有偏重,但是影响这些题目分数高低的共同原因,就是自尊这一个潜在构念。以下,我们将以这个量表的前六题为例,说明因素分析的统计原理与分析结果。表1-3 Rosenberg的自尊量表(一)因素分析的基本模型

Spearman最初提出因素分析的概念时,其主要目的是透过一组可具体观察的测量变项,利用其间的相关情形来估计出潜藏其后的抽象心理构念(潜在变项),各个测量题目之间共同的部分即可用来代表构念。后来Thurstone(1947)将Spearman的因素分析概念扩大到多元因素的复杂结构分析,使得因素分析获得心理学家广泛采用,用来解决棘手的心理测量的构念效度举证问题。

如果今天有一组测量变项(X),第i与第j个测量变项间所具有的ij相关(ρ)反映了两个变项的相关强度,如果这两个测量变项系受到ij同一个潜在变项的影响,那么ρ可被此一潜在变项与两个测量变项的ij关系(以系数λ与λ表示其强度),来重制得出:ijijρ=λλ      (1-1)123

以三个测量变项(X、X、X)为例,两两之间具有相关的情况121323下,可以计算出三个相关系数(ρ、ρ、ρ),反映三个测量变项之间的关系强弱,如图1-1所示。图1-1 三个测量变项的关系图示

如果这三个测量变项受到相同的潜在变项的影响,那么三者共同变异部分可被潜在变项(F)来解释,此时F与三个测量变项的关系可以用图1-2表示。以因素分析的术语来看,此一潜在变项即为决定测量变项关系的共同因素,λ则为因素负荷量,图1-2是一个具有单一123因素的因素模型。在此一模型中,三个相关系数可利用λ、λ、λ重制得出,关系如下:图1-2 单一潜在变项的因素模型图示1212ρ=λλ      (1-2)1313ρ=λλ      (1-3)2323ρ=λλ      (1-4)

在不同的数学算则与限定条件下,可以求得式(1-2)、(1-3)、121323123(1-4)中重制ρ、ρ、ρ的λ、λ、λ三个系数的最佳解。一旦因素模式确立,研究者即可将F这个影响测量变项变异的共同原因,解释成为潜藏在背后的抽象特质或心理构念。(二)因素分析方程式ij

在图1-2中,ρ是可被观察的已知现象,因此λ系数可以透过统计算则进行求解,建立一组线性整合方程式来估计出潜在变项F:112233F=bX+bX+bX+…+U      (1-5)1210

式(1-5)当中的权数b,b,…,b称为因素分数系数,用以110估计因素分数。以自尊量表当中X到X十个题目为例,F表示“自尊”这一个共同因素,U反映了无法被十个题目估计到的独特性。一组测量变项背后的共同因素可能不止一个,因此对于个别测量变项,一个具有m个因素的因素模型可以重制得出测量变项的数值:

式(1-6)中,反映测量变项与各因素关系的系数(λ)即为因素负荷量,得出的重制分数()可进一步计算测量变项间的重制相关(reproduced correlation)。将重制相关与原始相关进行比较,即可得到残差,用来衡量因素模型反映观察数据的能力。

各测量变项变异被各因素解释的部分称为共同性2(communality),以h表示,潜在变项无法解释测量变项的部分称为22独特变异(unique variance),以u表示。测量变项的变异数(σ)、222共同性、独特性三者具有σ=h+u的关系。共同性是一种类似回归分2析中的解释力(R)的概念,亦即各测量变项能够被潜在变项解释的百分比,为各因素负荷量的平方和亦称为共同变异(common variance):2222212mmh=λ+λ+…+λ=∑λ      (1-7)

当萃取出来的各因素解释测量变项变异的能力愈强时,共同性愈高,独特性愈低,反之,当萃取出来的各因素能够解释测量变项变异的能力愈弱时,共同性愈低,独特性愈高。

值得注意的是,因素分析多以相关矩阵来进行分析,此时各测量变项系以标准分数的形式来进行分析,因此各测量变项的变异数为1。22共同性h与独特性u均为介于0到1的正数,两者和为1,因此对其解释的方式才可以百分比的概念为之。但是因素分析是以共变矩阵进行分析时,各测量变项的变异数不一定为1,而是反映各测量变项在原始量尺下的变异强弱,换言之,测量变项的变异数大小会影响因素分析的结果,变异数大者在因素分析中的影响力大,变异数小者在因素分析中的影响力小,变异数成为测量变项影响力的加权系数。

由于因素分析主要应用在量表效度的检测,为了便于解释并避免各测量变项单位(量尺)差异的影响,因素分析均以相关系数作为分析矩阵,以确实掌握共同部分的内涵。如果研究者为了保持各测量变项的原始尺度,使因素或主成分的萃取能够保留原始单位的概念,可利用共变矩阵来分析。本文将以自尊量表的前六题来进行因素分析,各题的描述统计与相关系数矩阵列于表1-4。表1-4 自尊量表前六题的描述统计量与相关矩阵(R)(N=1000)(三)特征值与特征矩阵

因素分析最关键的运算步骤,是基于主成分分析技术,利用矩阵原理在特定的条件下对测量变项的相关矩阵(R)进行对角转换(diagonalized),使得测量变项的相关矩阵得以缩减成一组直交的对角线特征值矩阵(L)。L矩阵对角在线的每一个向量值称为特征值(eigenvalue),代表各测量变项的线性整合分数的变异量,特征值愈大者,表示该线性整合分数(或称为主轴,principal axis)具有较大的变异量,又称为萃取变异(extracted variance)或解释变异量(explained variance)。经对角转换后的特征值矩阵与测量变项间的转换关系由一组特征向量矩阵(V)表示,其转换关系如下:L=V′RV      (1-8)

传统上,以主成分分析技术进行对角转换(估计主轴)的过程,系利用各测量变项的变异数作加权,主轴的方向多由变异数大者的测量变项所主导,而解释力最大的主轴系最能解释测量变项总变异量的线性整合分数。研究者可以选择数个最能代表测量变项的几个主轴加以保留,用来代表原来的测量变项,所保留下来的主轴又称为主成分,因此整个分析的结果称为主成分分析。

相对的,Spearman的因素分析模式所着重的是测量变项间相关情形的解释与心理构念的推估,因此测量变项变异数解释量的多寡并非主轴萃取的主要焦点,测量变项变异数不是潜在变项估计的主要材料。所以,对角化过程应将相关矩阵(R)的对角线元素(1.00)改由估计的共同性或测量变项的多元相关平方(squared multiple correlation,SMC)所取代,称为缩减相关矩阵(reduced correlation matrix,以表示),令主轴的方向以测量变项的共同变异为估计基础,而非测量变项的变异数。当对角线元素改由共同性元素所取代后重新估计得到新的共同性值可以再次代回矩阵,进行迭代估计,当共同性不再变动时所达成的收敛解,是为最后的因素模式,此一方法称为主轴萃取法(principal axis method)。

在实际应用时,研究者必须了解以PCA(变异数解释最大化)或FA(共变项解释最大化)两种资料缩减策略所得到的分析结果的理论意义分别为何以及不同萃取方式所可能造成不同结论的原因。如果研究资料具有较严重的测量误差(例如心理测验分数),测量变项的变异数当中包含较大比例的误差变异,使用主成分萃取和主轴因素萃取估计得到会有较大的差异。

以前述六题自尊测量的相关矩阵R为例,六个测量变项所形成的相关系数观察矩阵为6×6矩阵,因此矩阵运算最多能够产生与测量变项个数相等数量的特征值(六个)。特征值的大小反映了线性整合后的变项变异量大小,因此,过小的特征值表示其能够解释各测量变项相关的能力太弱,没有存在的必要而加以忽略。表1-4的相关矩阵经SPSS软件执行主轴萃取法的结果如表1-5所示。表1-5 解说总变异量(以SPSS软件分析所得报表)

从表1-5可以看出,以传统主成分技术针对相关系数矩阵R进行对角转换所可能得到六个特征值(列于初始特征值),前两个(2.742与1.126)能够解释较多的测量变项变异量之外,另外四个特征值太小则可加以忽略。但是如果以缩减相关矩阵进行因素萃取得到的前两大特征值,亦即最能解释测量变项共变数的前两个因素的特征值分别为2.307与0.671,两者的特征值数量均比主成分萃取得到的特征值为低,显示缩减相关矩阵扣除了共变以外的独特变异,使得估计得出的共同变项(因素)反映扣除测量误差(测量变项独特性)后的真实变异,作为构念的估计数。前述特征值的计算与测量变项关系的矩阵推导过程如下:

在因素分析的初始状况下,测量题目的总变异为各测量变项变异数的总和,各因素萃取得到的特征值占全体变异的百分比称为萃取比例。表1-4当中六个题目总变异为6(每题变异数为1),两个因素各解释2.307/6=38.45%与0.671/6=11.18%的变异量,合计为49.63%萃取变异量。

因素分析所追求的是以最少的特征值来解释最多的测量变项共变数,当萃取因素愈多,解释量愈大,但是因素模型的简效性愈低。研究者必须在因素数目与解释变异比例两者间找寻平衡点。因为如果研究者企图以精简的模式来解释测量数据,势必损失部分可解释变异来作为补偿,因而在FA中,研究者有相当部分的努力,是在决定因素数目与提高因素的解释变异。(四)因素负荷量与共同性

因素萃取系由特征向量对于相关矩阵进行对角转换得出。因此,反映各萃取因素(潜在变项)与测量变项之间关系的因素负荷量矩阵(factor loading matrix,以A表示)可由矩阵转换原理从特征向量矩阵求得,亦即:

以六个自尊测量的主轴萃取结果为例,因素负荷量矩阵如下:

因素负荷量的性质类似于回归系数,其数值反映了各潜在变项对于测量变项的影响力,例如本范例中的两个因素对第一个题目的负荷量分别为0.562与0.255,表示第一个因素对第一题的解释力较强。同样的,各因素对于第二题的进行解释的负荷量分别为0.674与-0.253,表示第一个因素对第二题的解释力较强之外,第二个因素对第二题的解释力为负值,表示影响方向相反,亦即当第二个因素强度愈强时,第二题的得分愈低。

如果把负荷量平方后相加,可得到解释变异量。对各题来说,两个因素对于各题解释变异量的总和,反映了萃取因素对于各题的总解释力,或是各测量变项对于整体因素结构所能够贡献的变异量的总和(亦即共同性)。此外,各因素在六个题目的解释变异量的总和,则反映了各因素从六个测量变项的矩阵所萃取的变异量总和,即为先前提到的解释变异量。计算的过程如表1-6所示。表1-6 因素负荷量、共同性与解释变异量的关系四因素萃取与数目决定(一)因素的萃取

将一组测量变项进行简化的方法很多,但能够萃取出共同因素、排除测量误差的方法才被称为因素分析。在一般统计软件中所提供的主成分分析法,系利用变项的线性整合来化简变项成为几个主成分,并不合适用来进行构念估计。常用的构念估计方法是共同因素法(即主轴因素法)或最大概似法。

主轴因素法与主成分分析法的不同,在于主轴因素法是试图解释测量变项间的共变数而非全体变异量。其计算方式与主成分分析的差异,是主轴因素法是将相关矩阵R以取代,以排除各测量变项的独特性。换言之,主轴因素法是萃取出具有共同变异的部分。第一个抽取出的因素解释了测量变项间共同变异的最大部分;第二个因素则试图解释第一个因素萃取后所剩余的测量变项共同变异的最大部分;其余因素依序解释剩余的共变数中的最大部分,直到共同变异无法被有效解释为止。

此法符合古典测量理论对于潜在构念估计的概念,亦即因素萃取系针对变项间的共同变异,而非分析变项的总变异。若以测量变项的总变异进行因素估计,其中包含着测量误差,混杂在因素估计的过程中,主轴因素萃取法借由将共同性代入观察矩阵中,虽然减低了因素的总解释变异,但是有效排除无关的变异的估计,在概念上符合理论的需求,因素的内容较易了解(Snock & Gorsuch,1989)。此外,主轴因素法的因子抽取以迭代程序来进行,能够产生最理想的重制矩阵,得到最理想的适配性,得到较小的残差。但是,也正因为主轴因素法是以共同性作为观察矩阵的对角线数值,因此比主成分因素分析估计更多的参数,模式的简效性较低。但一般在进行抽象构念的估计时,理论检验的目的性较强,而非单纯化简变项,因此宜采用主轴因素法,以获得更接近潜在构念的估计结果。

另一种也常被用来萃取因素的技术是最大概似法,在常态机率函数的假定下,进行参数估计。由于因素分析最重要的目的是希望能够从样本资料中,估算出一个最能代表母体的因素模式,因此,若个别的测量分数呈常态分配,一组测量变项的联合分配也为多元常态分配,基于此一统计分配的假定下,我们可以针对不同的假设模型来适配观察资料,借以获得最可能的参数估计数,作为模型的参数解,并进而得以计算模式适合度,检视理论模式与观察资料的适配程度。换言之,从样本估计的得到的参数愈理想,所得到的重制相关会愈接近观察相关。由于样本的估计系来自于多元常态分配的母体,因此我们可以利用常态分配函数以迭代程序求出最可能性的一组估计数作为因素负荷值。重制相关与观察相关的差异以透过损失函数(lose function)来估计,并可利用显著性考验(卡方检定)来进行检定,提供了因素结构好坏的客观标准。可惜的是,最大概似法比起各种因素分析策略不容易收敛获得数学解,需要较大的样本数来进行参数估计,且对资料要求常态假设,是其必须加以考虑的因素。

另一个与最大概似法有类似程序的技术称为最小平方法,两者主要差异在于损失函数的计算方法不同。最小平方法在计算损失函数时,是利用最小差距原理导出因素形态矩阵后,取原始相关矩阵与重制矩阵的残差的最小平方值,称为未加权最小平方法,表示所抽离的因素与原始相关模式最接近。若相关系数事先乘以变项的残差,使残差大的变项(可解释变异量少者)的比重降低,共同变异较大者被加权放大,进而得到原始相关系数/新因素负荷系数差异的最小平方距离,此时称为加权最小平方法。在计算损失函数时,只有非对角线上的数据被纳入分析。而共同性是分析完成之后才进行计算。

还有一种萃取方法称为映像因素萃取(image factor extraction),其原理是取各测量变项的变异量为其他变项的投射。每一个变项的映像分数系以多元回归的方法来计算,映像分数的共变矩阵系以PCA进行对角化。此一方法虽类似PCA能够产生单一数学解,但对角线以替代,因此得以视为因素分析的一种。但是值得注意的是,此法所得到的因素负荷量不是相关系数,而是变项与因素的共变项。至于SPSS当中提供的α法(alpha factoring),则是以因素信度最大化为目标,以提高因素结构的类化到不同测验情境的适应能力。(二)因素数目的决定1.直观判断法(1)特征值大于1.0

传统上,因素数目的决定常以特征值大于1者为共同因素(Guttman,1954;Kaiser,1960,1970),也就是共同因素的变异数至少要等于单一测量变项的标准化变异数(亦即1.00),又称为Kaiser 1 rule(K-1法)或EV-1法则。虽然K-1法简单明确,普遍为统计软件作为默认的标准,但是却有诸多缺点,一般建议此原则仅作参考或快速筛选之用。主要的问题之一是此法并没有考虑到样本规模与特性的差异。此外,当测量变项愈多,愈少的共同变异即可被视为一个因素。例如在10个测量变项时,1个单位的共同变异占全体变异的10%,但是在20个测量变项时,1个单位的共同变异仅占全体变异的5%,仍可被视为一个有意义的因素。(2)陡坡检定

由于共同因素的抽取系以迭代的方式从最大变异的特征值开始抽取,直到无法抽取出任何共同变异为止,因此特征值的递减状况可以利用陡坡图(scree plot)来表示,如图1-3中的折线所示。当因素不明显或没有保留必要时,其特征值应成随机数值,但是对于明显存在的因素,其特征值会明显提升。透过特征值的递增状况,将特征值数值转折陡增时作为合理的因素数目,称为陡坡检定(scree test)

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载