考研备考 百文网手机站

考研统计学有哪些知识要点

时间:2021-12-04 15:30:13 考研备考 我要投稿

考研统计学有哪些知识要点

  考研的小伙伴们在选择了统计学这个专业的时候,要掌握好它的知识要点,才能更好进行复习。小编为大家精心准备了考研统计学重要考点,欢迎大家前来阅读。

考研统计学有哪些知识要点

  考研统计学知识点:简单回归

  1.相关分析:对两个变量之间线性关系的描述与度量,它要解决的问题包括

  § 变量之间是否存在关系?

  § 如果存在关系,它们之间是什么样的关系?

  § 变量之间的强度如何?

  § 样本所反映的变量之间的关系能否代表总体变量之间的关系?

  2.回归分析:从一组样本数据出发,确定变量之间的数学关系式;对这些关系式的可信程度进行各种统计检验,并从影响某一特定变量的诸多变量中找出哪些变量的影响显著,哪些不显著;利用所求的关系式,根据一个或几个变量的取值来预测或控制另一个特定变量的取值,并给出这种预测或控制的精确程度

  3.回归分析与相关分析的区别

  相关分析中,变量 x 变量 y 处于平等的地位;回归分析中,变量 y 称为因变量,处在被解释的地位,x 称为自变量,用于预测因变量的变化

  相关分析中所涉及的变量 x 和 y 都是随机变量;回归分析中,因变量 y 是随机变量,自变量 x 可以是随机变量,也可以是非随机的确定变量

  相关分析主要是描述两个变量之间线性关系的密切程度;回归分析不仅可以揭示变量 x 对变量 y 的影响大小,还可以由回归方程进行预测和控制

  4.一元线性回归模型

  描述因变量 y 如何依赖于自变量 x 和误差项e 的方程称为回归模型

  一元线性回归模型可表示为

  y = b0 +b1 x + e

  y 是 x 的线性函数(部分)加上误差项

  线性部分反映了由于 x 的变化而引起的 y 的变化

  误差项 e 是随机变量

  l 反映了除 x 和 y 之间的线性关系之外的随机因素对 y 的影响

  l 是不能由 x 和 y 之间的线性关系所解释的变异性

  b0 和 b1 称为模型的参数

  5.利用回归方程预测时应注意

  1. 在利用回归方程进行估计或预测时,不要用样本数据之外的x值去预测相对应的y值

  2. 因为在一元线性回归分析中,总是假定因变量y与自变量x之间的关系用线性模型表达是正确的。但实际应用中,它们之间的关系可能是某种曲线

  3. 此时我们总是要假定这条曲线只有一小段位于x测量值的范围之内。如果x的取值范围是在xL和xU之间,那么可以用所求出的利用回归方程对处于xL和xU之间的值来估计E(y)和预测y。如果用xL和xU之间以外的值得出的估计值和预测值就会很差

  6.离差平方和

  总平方和(SST)

  反映因变量的 n 个观察值与其均值的总离差

  回归平方和(SSR)

  反映自变量 x 的变化对因变量 y 取值变化的影响,或者说,是由于 x 与 y 之间的线性关系引起的 y 的取值变化,也称为可解释的平方和

  残差平方和(SSE)

  反映除 x 以外的其他因素对 y 取值的影响,也称为不可解释的平方和或剩余平方和

  7.估计标准误差

  实际观察值与回归估计值离差平方和的均方根(自由度n-2)

  反映实际观察值在回归直线周围的分散状况

  对误差项e的标准差s的估计,是在排除了x对y的线性影响后,y随机波动大小的一个估计量

  反映用估计的回归方程预测y时预测误差的大小。

  考研统计学要点:多元回归

  1.多重共线性

  回归模型中两个或两个以上的自变量彼此相关

  多重共线性带来的问题有

  可能会使回归的结果造成混乱,甚至会把分析引入歧途

  可能对参数估计值的正负号产生影响,特别是各回归系数的正负号有可能同我们预期的正负号相反

  2.多重共线性的识别

  检测多重共线性的最简单的一种办法是计算模型中各对自变量之间的相关系数,并对各相关系数进行显著性检验

  若有一个或多个相关系数显著,就表示模型中所用的自变量之间相关,存在着多重共线性

  如果出现下列情况,暗示存在多重共线性

  模型中各对自变量之间显著相关。

  当模型的线性关系检验(F检验)显著时,几乎所有回归系数的t检验却不显著

  回归系数的正负号与预期的相反。

  3.变量选则过程

  在建立回归模型时,对自变量进行筛选

  选择自变量的原则是对统计量进行显著性检验

  将一个或一个以上的自变量引入到回归模型中时,是否使得残差平方和(SSE)有显著地减少。如果增加一个自变量使SSE的'减少是显著的,则说明有必要将这个自变量引入回归模型,否则,就没有必要将这个自变量引入回归模型

  确定引入自变量是否使SSE有显著减少的方法,就是使用F统计量的值作为一个标准,以此来确定是在模型中增加一个自变量,还是从模型中剔除一个自变量

  变量选择的方法主要有:向前选择、向后剔除、逐步回归、最优子集等

  4.向前选择

  从模型中没有自变量开始

  对k个自变量分别拟合对因变量的一元线性回归模型,共有k个,然后找出F统计量的值最高的模型及其自变量(P值最小的),并将其首先引入模型

  分别拟合引入模型外的k-1个自变量的线性回归模型

  如此反复进行,直至模型外的自变量均无统计显著性为止

  5.向后剔除

  先对因变量拟合包括所有k个自变量的回归模型。然后考察p(p

  考察p-1个再去掉一个自变量的模型(这些模型中每一个都有k-2个的自变量),使模型的SSE值减小最少的自变量被挑选出来并从模型中剔除

  如此反复进行,一直将自变量从模型中剔除,直至剔除一个自变量不会使SSE显著减小为止

  6.逐步回归

  将向前选择和向后剔除两种方法结合起来筛选自变量

  在增加了一个自变量后,它会对模型中所有的变量进行考察,看看有没有可能剔除某个自变量。如果在增加了一个自变量后,前面增加的某个自变量对模型的贡献变得不显著,这个变量就会被剔除

  按照方法不停地增加变量并考虑剔除以前增加的变量的可能性,直至增加变量已经不能导致SSE显著减少

  在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中

  7.虚拟自变量

  用数字代码表示的定性自变量

  虚拟自变量可有不同的水平

  只有两个水平的虚拟自变量。比如,性别(男,女)

  有两个以上水平的虚拟自变量,贷款企业的类型(家电,医药,其他)

  虚拟变量的取值为0,1

  回归模型中使用虚拟自变量时,称为虚拟自变量的回归

  当虚拟自变量只有两个水平时,可在回归中引入一个虚拟变量,比如,性别

  一般而言,如果定性自变量有k个水平,需要在回归中模型中引进k-1个虚拟变量

  例:引进虚拟变量时,回归方程可写:

  E(y) =b0+ b1x1+ b2x2

  女( x2=0):E(y|女性) =b0 +b1x1

  男(x2=1):E(y|男性) =(b0 + b2 ) +b1x1

  b0的含义表示:女性职工的期望月工资收入

  (b0+ b2)的含义表示:男性职工的期望月工资收入

  b1含义表示:工作年限每增加1年,男性或女性工资的平均增加值

  b2含义表示:男性职工的期望月工资收入与女性职工的期望月工资收入之间的差值 (b0+ b2) - b0= b2

  考研统计学难点:主成分和因子分析

  1.(1)概念:在研究实际问题时,往往需要收集多个变量。但这样会使多个变量间存在较强的相关关系,即这些变量间存在较多的信息重复,直接利用它们进行分析,不但模型复杂,还会因为变量间存在多重共线性而引起较大的误差。为能够充分利用数据,通常希望用较少的新变量代替原来较多的旧变量,同时要求这些新变量尽可能反映原变量的信息。主成分分析和因子分子正是解决这类问题的有效方法。它们能够提取信息,使变量简化降维,从而使问题更加简单直观

  (2)主成分分析:研究如何通过少数几个主成分(principal component)来解释多个变量间的内部结构。即从原始变量中导出少数几个主分量,使它们尽可能多地保留原始变量的信息,且彼此间互不相关

  主成分分析的目的:数据的压缩;数据的解释。常被用来寻找判断事物或现象的综合指标,并对综合指标所包含的信息进行适当的解释。(主成分所代表的原始变量的信息用其方差来表示,一般要求所选主成分的方差总和占全部方差的80%以上就可以了。如果原来的变量之间的相关程度高,降维的效果就会好一些,所选的主成分就会少一些。特征根反映了主成分对原始变量的影响程度,表示引入该主成分后可以解释原始变量的信息。特征根又叫方差,某个特征根占总特征根的比例称为主成分方差贡献率。一般情况下,当特征根小于1时,就不再选作主成分了,因为该主成分的解释力度还不如直接用原始变量解的释力度大。)

  (3)因子分析:与主成分分析类似,它们都是要找出少数几个新的变量来代替原始变量。

  不同之处:主成分分析中的主成分个数与原始变量个数是一样的,即有几个变量就有几个主成分,只不过最后我们确定了少数几个主成分而已。而因子分析则需要事先确定要找几个成分,也称为因子(factor),然后将原始变量综合为少数的几个因子,以再现原始变量与因子之间的关系,一般来说,因子的个数会远远少于原始变量的个数。

  因子分析可以看作是主成分分析的推广和扩展,但它对问题的研究更深入、更细致一些。实际上,主成分分析可以看作是因子分析的一个特例

  简言之,因子分析是通过对变量之间关系的研究,找出能综合原始变量的少数几个因子,使得少数因子能够反映原始变量的绝大部分信息,然后根据相关性的大小将原始变量分组,使得组内的变量之间相关性较高,而不同组的变量之间相关性较低。因此,因子分析属于多元统计中处理降维的一种统计方法,其目的就是要减少变量的个数,用少数因子代表多个原始变量

  (4)因子数量的确定

  用公因子方差贡献率提取:与主成分分析类似,一般累计方差贡献率达到80%以上的前几个因子可以作为最后的公因子

  用特征根提取:一般要求因子对应的特征根要大于1,因为特征根小于1说明该共因子的解释力度太弱,还不如使用原始变量的解释力度大

  实际应用中,因子的提取要结合具体问题而定,在某种程度上,取决于研究者自身的知识和经验

  (5)主成分分析和因子分析都是多元分析中处理降维的两种统计方法。只有当原始数据中的变量之间具有较强的相关关系时,降维的效果才会明显,否则不适合进行主成分分析和因子分析

  主成分和因子的选择标准应结合具体问题而定。在某种程度上取决于研究者的知识和经验,而不是方法本身

  即使得到了满意的主成分或因子,在运用它们对实际问题进行评价、排序等分析时,仍然要保持谨慎,因为主成分和因子毕竟是高度抽象的量,无论如何,它们的含义都不如原始变量清晰

  因子分析可以看作是主成分分析的推广和扩展,而主成分分析则可以看作是因子分析的一个特例。目前因子分析在实际中被广泛应用,而主成分分析通常只作为大型统计分析的中间步骤,几乎不再单独使用。


【考研统计学有哪些知识要点】相关文章:

学好统计学的方法有哪些11-13

java基础要点有哪些09-26

科目二考试要点有哪些07-21

科目一考试要点有哪些04-15

雅思写作试题有哪些检查要点11-10

新手上路有哪些注意要点04-03

科目四考试复习要点有哪些10-01

科目二考试有哪些关键要点07-02

科目一理论考试要点有哪些10-29

考研英语常见短语有哪些08-19