13,329
次編輯
變更
多元分析
,'''多元分析'''是研究多个[[自变量]]与[[因变量]]相互关系的一组统计理论和方法。又称多变量分析。多元分析是单变量统计方法的发展和推广。
中文名:[[多元分析 ]]
外文名:[[multivariate analysis]]
适用范围:[[数理科学 ]]
[[File:多元分析1.jpg|缩略图|多元分析[https://dss2.bdstatic.com/70cFvnSh_Q1YnxGkpoWK1HF6hhy/it/u=4109098932,2117524740&fm=26&gp=0.jpg 原图链接][https://dss2.bdstatic.com/70cFvnSh_Q1YnxGkpoWK1HF6hhy/it/u=4109098932,2117524740&fm=26&gp=0.jpg 原图来源百度网]]]
==简介==
统计学的一个重要[[分支]],主要探究多维数据的内在规律性,如多维随机变量间的相互依赖关系、结构关系等。根据获得数据的类型不同,多元统计分析可分为连续型和离散型多元分析,前者包括多元正态分布的估计与检验、多因变量线性回归、判别分析、典型相关分析、主成分分析、[[因子分析]]、[[聚类分析]]等,后者包括列[[联表分析]]、对数线性模型、对数单位模型、逻辑斯谛回归模型、有序离散型多元变量的分析。<ref>[王元,文兰,陈木法.数学大辞典:科学出版社,2010]</ref>
==历史==
首先涉足多元分析方法是[[F.高尔顿]],他于1889年把双变量的正态分布方法运用于传统的[[统计学]],创立了相关系数和线性回归。其后的几十年中,[[C.E.斯皮尔曼]]提出因素分析法(见因素分析),[[R.A.费希尔]]提出方差分析和判别分析,S.S.威尔克斯发展了多元方差分析,H.霍特林确定了主成分分析和典型相关。到20世纪前半叶,多元分析理论大多已经确立。60年代以后,随着计算机科学的发展,多元分析方法在心理学以及其他许多学科的研究中得到了越来越广泛的应用。
==分析方法==
包括3类:①多元方差分析、多元回归分析和协方差分析,称为线性模型方法,用以研究确定的自变量与因变量之间的关系;②判别函数分析和聚类分析,用以研究对事物的分类;③主成分分析、典型相关和因素分析,研究如何用较少的综合因素代替为数较多的原始变量。
[[File:多元分析2.jpg|缩略图|多元分析[https://ss0.bdstatic.com/70cFuHSh_Q1YnxGkpoWK1HF6hhy/it/u=3378342492,135110818&fm=26&gp=0.jpg 原图链接][https://ss0.bdstatic.com/70cFuHSh_Q1YnxGkpoWK1HF6hhy/it/u=3378342492,135110818&fm=26&gp=0.jpg 图片来源百度网]]]
==多元方差==
是把总变异按照其来源(或实验设计)分为多个部分,从而检验各个因素对因变量的影响以及各因素间交互作用的统计方法。例如,在分析2×2析因设计资料时,总变异可分为分属两个因素的两个组间变异、两因素间的交互作用及误差(即组内变异)等四部分,然后对组间变异和交互作用的显著性进行F检验。
优点:是可以在一次[[研究]]中同时检验具有多个水平的多个因素各自对因变量的影响以及各因素间的交互作用。其应用的限制条件是,各个因素每一水平的样本必须是独立的随机样本,其重复观测的数据服从正态分布,且各总体方差相等。
==多元回归==
用以[[评估]]和[[分析]]一个因变量与多个自变量之间线性函数关系的统计方法。
优点:是可以定量地[[描述]]某一现象和某些因素间的线性函数关系。将各变量的已知值代入回归方程便可求得因变量的估计值(预测值),从而可以有效地预测某种现象的发生和发展。它既可以用于连续变量,也可用于二分变量(0,1回归)。多元回归的应用有严格的限制。首先要用[[方差分析]]法检验因变量y与m个自变量之间的线性回归关系有无显著性,其次,如果y与m个自变量总的来说有线性关系,也并不意味着所有自变量都与因变量有线性关系,还需对每个自变量的偏回归系数进行t检验,以剔除在方程中不起作用的自变量。也可以用逐步回归的方法建立回归方程,逐步选取自变量,从而保证引入方程的自变量都是重要的。
[[File:多元分析3.jpg|缩略图|多元分析[https://ss0.bdstatic.com/70cFvHSh_Q1YnxGkpoWK1HF6hhy/it/u=2776466412,3190608292&fm=26&gp=0.jpg 原图链接][https://ss0.bdstatic.com/70cFvHSh_Q1YnxGkpoWK1HF6hhy/it/u=2776466412,3190608292&fm=26&gp=0.jpg 图片来源百度网]]]
==协方差==
把线性回归与方差分析结合起来检验多个修正均数间有无差别的统计方法。例如,一个实验包含两个多元自变量,一个是离散变量(具有多个水平),一个是连续变量,实验目的是分析离散变量的各个水平的优劣,此变量是方差变量;而连续变量是由于无法加以控制而进入实验的,称为协变量。在运用协方差分析时,可先求出该连续变量与因变量的线性回归函数,然后根据这个[[函数]]扣除该变量的影响,即求出该连续变量取等值情况时因变量的修正均数,最后用方差分析检验各修正均数间的差异显著性,即检验离散变量对因变量的影响。
优点:可以在考虑连续变量影响的条件下检验离散变量对因变量的影响,有助于排除非实验因素的干扰作用。其限制条件是,理论上要求各组资料(样本)都来自方差相同的正态总体,各组的总体直线回归系数相等且都不为0。因此应用协方差分析前应先进行方差齐性[[检验]]和回归系数的假设检验,若符合或经变换后符合上述条件,方可作协方差分析。
==判别函数==
判定个体所属类别的统计方法。其基本原理是:根据两个或多个已知类别的样本观测资料确定一个或几个线性判别函数和判别指标,然后用该判别函数依据判别指标来判定另一个个体属于哪一类。
判别分析不仅用于连续变量,而且借助于数量化理论亦可用于定性资料。它有助于客观地确定归类标准。然而,判别分析仅可用于类别已确定的情况。当类别本身未定时,预用聚类分析先分出类别,然后再进行判别分析。
==聚类==
解决分类问题的一种统计方法。对观测对象进行聚类,称为Q型分析;若对变量进行聚类,称为R型分析。聚类的基本原则是,使同类的内部差别较小,而类别间的差别较大。最常用的聚类方案有两种。一种是系统聚类方法。例如,要将n个对象分为k类,先将n个对象各自分成一类,共n类。然后计算两两之间的某种“距离”,找出距离最近的两个类、合并为一个新类。然后逐步重复这一过程,直到并为k类为止。另一种为逐步聚类或称动态聚类方法。当样本数很大时,先将n个样本大致分为k类,然后按照某种最优原则逐步修改,直到分类比较合理为止。
聚类分析是依据个体或变量的[[数量]]关系来分类,客观性较强,但各种聚类方法都只能在某种条件下达到局部最优,聚类的最终结果是否成立,尚需[[专家]]的鉴定。必要时可以比较几种不同的方法,选择一种比较符合专业要求的分类结果。
==主成分==
把原来多个指标化为少数几个互不相关的综合指标的一种统计方法。例如,用p个指标观测样本,如果p个指标互不相关,则可把问题化为p个单指标来处理。但大多时候p个指标之间存在着相关。此时可运用主成分分析寻求这些指标的互不相关的线性函数,使原有的多个指标的变化能由这些线性函数的变化来解释。这些线性函数称为原有[[指标]]的主成分,或称[[主分量]]。
主成分分析有助于分辨出影响因变量的主要因素,也可应用于其他多元分析方法,例如在分辨出主成分之后再对这些主成分进行回归分析、判别分析和典型相关分析。主成分分析还可以作为因素分析的第一步,向前推进就是因素分析。其缺点是只涉及一组变量之间的相互依赖关系,若要讨论两组变量之间的相互关系则须运用典型相关。
==典型相关==
先将较多变量转化为少数几个典型变量,再通过其间的典型相关系数来综合描述两组多元随机变量之间关系的统计方法。设x是p元随机变量,y是q元随机变量,可逐一计算x的p个分量和y的q个分量之间的相关系数(p×q个), 但这样既繁琐又不能反映事物的本质。如果运用典型相关分析,其基本程序是,从两组变量各自的线性函数中各抽取一个组成一对,它们应是相关系数达到最大值的一对,称为第1对典型变量,类似地还可以求出第2对、第3对、…。这些成对变量之间互不相关,各对典型变量的相关系数称为典型相关系数。所得到的典型相关系数的数目不超过原两组变量中任何一组变量的数目。
典型相关分析有助于综合地描述两组变量之间的典型的相关关系。其条件是,两组[[变量]]都是连续变量,其资料都必须服从多元正态分布。
以上几种多元[[分析]]方法各有优点和局限性。每一种方法都有它特定的假设、条件和数据要求,例如正态性、线性和同方差等。因此在应用多元分析方法时,应在研究计划阶段确定理论框架,以决定收集何种数据、怎样收集和如何分析[[数据]]资料。
==视频==
==飞哥教学--多元分析--黄杰==
;{{#iDisplay:y0393lxmjqj | 560 | 390 | qq }}
==参考文献==
{{Reflist}}
中文名:[[多元分析 ]]
外文名:[[multivariate analysis]]
适用范围:[[数理科学 ]]
[[File:多元分析1.jpg|缩略图|多元分析[https://dss2.bdstatic.com/70cFvnSh_Q1YnxGkpoWK1HF6hhy/it/u=4109098932,2117524740&fm=26&gp=0.jpg 原图链接][https://dss2.bdstatic.com/70cFvnSh_Q1YnxGkpoWK1HF6hhy/it/u=4109098932,2117524740&fm=26&gp=0.jpg 原图来源百度网]]]
==简介==
统计学的一个重要[[分支]],主要探究多维数据的内在规律性,如多维随机变量间的相互依赖关系、结构关系等。根据获得数据的类型不同,多元统计分析可分为连续型和离散型多元分析,前者包括多元正态分布的估计与检验、多因变量线性回归、判别分析、典型相关分析、主成分分析、[[因子分析]]、[[聚类分析]]等,后者包括列[[联表分析]]、对数线性模型、对数单位模型、逻辑斯谛回归模型、有序离散型多元变量的分析。<ref>[王元,文兰,陈木法.数学大辞典:科学出版社,2010]</ref>
==历史==
首先涉足多元分析方法是[[F.高尔顿]],他于1889年把双变量的正态分布方法运用于传统的[[统计学]],创立了相关系数和线性回归。其后的几十年中,[[C.E.斯皮尔曼]]提出因素分析法(见因素分析),[[R.A.费希尔]]提出方差分析和判别分析,S.S.威尔克斯发展了多元方差分析,H.霍特林确定了主成分分析和典型相关。到20世纪前半叶,多元分析理论大多已经确立。60年代以后,随着计算机科学的发展,多元分析方法在心理学以及其他许多学科的研究中得到了越来越广泛的应用。
==分析方法==
包括3类:①多元方差分析、多元回归分析和协方差分析,称为线性模型方法,用以研究确定的自变量与因变量之间的关系;②判别函数分析和聚类分析,用以研究对事物的分类;③主成分分析、典型相关和因素分析,研究如何用较少的综合因素代替为数较多的原始变量。
[[File:多元分析2.jpg|缩略图|多元分析[https://ss0.bdstatic.com/70cFuHSh_Q1YnxGkpoWK1HF6hhy/it/u=3378342492,135110818&fm=26&gp=0.jpg 原图链接][https://ss0.bdstatic.com/70cFuHSh_Q1YnxGkpoWK1HF6hhy/it/u=3378342492,135110818&fm=26&gp=0.jpg 图片来源百度网]]]
==多元方差==
是把总变异按照其来源(或实验设计)分为多个部分,从而检验各个因素对因变量的影响以及各因素间交互作用的统计方法。例如,在分析2×2析因设计资料时,总变异可分为分属两个因素的两个组间变异、两因素间的交互作用及误差(即组内变异)等四部分,然后对组间变异和交互作用的显著性进行F检验。
优点:是可以在一次[[研究]]中同时检验具有多个水平的多个因素各自对因变量的影响以及各因素间的交互作用。其应用的限制条件是,各个因素每一水平的样本必须是独立的随机样本,其重复观测的数据服从正态分布,且各总体方差相等。
==多元回归==
用以[[评估]]和[[分析]]一个因变量与多个自变量之间线性函数关系的统计方法。
优点:是可以定量地[[描述]]某一现象和某些因素间的线性函数关系。将各变量的已知值代入回归方程便可求得因变量的估计值(预测值),从而可以有效地预测某种现象的发生和发展。它既可以用于连续变量,也可用于二分变量(0,1回归)。多元回归的应用有严格的限制。首先要用[[方差分析]]法检验因变量y与m个自变量之间的线性回归关系有无显著性,其次,如果y与m个自变量总的来说有线性关系,也并不意味着所有自变量都与因变量有线性关系,还需对每个自变量的偏回归系数进行t检验,以剔除在方程中不起作用的自变量。也可以用逐步回归的方法建立回归方程,逐步选取自变量,从而保证引入方程的自变量都是重要的。
[[File:多元分析3.jpg|缩略图|多元分析[https://ss0.bdstatic.com/70cFvHSh_Q1YnxGkpoWK1HF6hhy/it/u=2776466412,3190608292&fm=26&gp=0.jpg 原图链接][https://ss0.bdstatic.com/70cFvHSh_Q1YnxGkpoWK1HF6hhy/it/u=2776466412,3190608292&fm=26&gp=0.jpg 图片来源百度网]]]
==协方差==
把线性回归与方差分析结合起来检验多个修正均数间有无差别的统计方法。例如,一个实验包含两个多元自变量,一个是离散变量(具有多个水平),一个是连续变量,实验目的是分析离散变量的各个水平的优劣,此变量是方差变量;而连续变量是由于无法加以控制而进入实验的,称为协变量。在运用协方差分析时,可先求出该连续变量与因变量的线性回归函数,然后根据这个[[函数]]扣除该变量的影响,即求出该连续变量取等值情况时因变量的修正均数,最后用方差分析检验各修正均数间的差异显著性,即检验离散变量对因变量的影响。
优点:可以在考虑连续变量影响的条件下检验离散变量对因变量的影响,有助于排除非实验因素的干扰作用。其限制条件是,理论上要求各组资料(样本)都来自方差相同的正态总体,各组的总体直线回归系数相等且都不为0。因此应用协方差分析前应先进行方差齐性[[检验]]和回归系数的假设检验,若符合或经变换后符合上述条件,方可作协方差分析。
==判别函数==
判定个体所属类别的统计方法。其基本原理是:根据两个或多个已知类别的样本观测资料确定一个或几个线性判别函数和判别指标,然后用该判别函数依据判别指标来判定另一个个体属于哪一类。
判别分析不仅用于连续变量,而且借助于数量化理论亦可用于定性资料。它有助于客观地确定归类标准。然而,判别分析仅可用于类别已确定的情况。当类别本身未定时,预用聚类分析先分出类别,然后再进行判别分析。
==聚类==
解决分类问题的一种统计方法。对观测对象进行聚类,称为Q型分析;若对变量进行聚类,称为R型分析。聚类的基本原则是,使同类的内部差别较小,而类别间的差别较大。最常用的聚类方案有两种。一种是系统聚类方法。例如,要将n个对象分为k类,先将n个对象各自分成一类,共n类。然后计算两两之间的某种“距离”,找出距离最近的两个类、合并为一个新类。然后逐步重复这一过程,直到并为k类为止。另一种为逐步聚类或称动态聚类方法。当样本数很大时,先将n个样本大致分为k类,然后按照某种最优原则逐步修改,直到分类比较合理为止。
聚类分析是依据个体或变量的[[数量]]关系来分类,客观性较强,但各种聚类方法都只能在某种条件下达到局部最优,聚类的最终结果是否成立,尚需[[专家]]的鉴定。必要时可以比较几种不同的方法,选择一种比较符合专业要求的分类结果。
==主成分==
把原来多个指标化为少数几个互不相关的综合指标的一种统计方法。例如,用p个指标观测样本,如果p个指标互不相关,则可把问题化为p个单指标来处理。但大多时候p个指标之间存在着相关。此时可运用主成分分析寻求这些指标的互不相关的线性函数,使原有的多个指标的变化能由这些线性函数的变化来解释。这些线性函数称为原有[[指标]]的主成分,或称[[主分量]]。
主成分分析有助于分辨出影响因变量的主要因素,也可应用于其他多元分析方法,例如在分辨出主成分之后再对这些主成分进行回归分析、判别分析和典型相关分析。主成分分析还可以作为因素分析的第一步,向前推进就是因素分析。其缺点是只涉及一组变量之间的相互依赖关系,若要讨论两组变量之间的相互关系则须运用典型相关。
==典型相关==
先将较多变量转化为少数几个典型变量,再通过其间的典型相关系数来综合描述两组多元随机变量之间关系的统计方法。设x是p元随机变量,y是q元随机变量,可逐一计算x的p个分量和y的q个分量之间的相关系数(p×q个), 但这样既繁琐又不能反映事物的本质。如果运用典型相关分析,其基本程序是,从两组变量各自的线性函数中各抽取一个组成一对,它们应是相关系数达到最大值的一对,称为第1对典型变量,类似地还可以求出第2对、第3对、…。这些成对变量之间互不相关,各对典型变量的相关系数称为典型相关系数。所得到的典型相关系数的数目不超过原两组变量中任何一组变量的数目。
典型相关分析有助于综合地描述两组变量之间的典型的相关关系。其条件是,两组[[变量]]都是连续变量,其资料都必须服从多元正态分布。
以上几种多元[[分析]]方法各有优点和局限性。每一种方法都有它特定的假设、条件和数据要求,例如正态性、线性和同方差等。因此在应用多元分析方法时,应在研究计划阶段确定理论框架,以决定收集何种数据、怎样收集和如何分析[[数据]]资料。
==视频==
==飞哥教学--多元分析--黄杰==
;{{#iDisplay:y0393lxmjqj | 560 | 390 | qq }}
==参考文献==
{{Reflist}}