样本内样本外预测

上传人:小** 文档编号:243714835 上传时间:2024-09-29 格式:PPT 页数:90 大小:699.50KB
返回 下载 相关 举报
样本内样本外预测_第1页
第1页 / 共90页
样本内样本外预测_第2页
第2页 / 共90页
样本内样本外预测_第3页
第3页 / 共90页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,*,第二章 最小二乘法(,OLS,)和线性回归模型,1,本章要点,最小二乘法的基本原理和计算方法,经典线性回归模型的基本假定,BLUE,统计量的性质,t,检验和置信区间检验的原理及步骤,多变量模型的回归系数的,F,检验,预测的类型及评判预测的标准,好模型具有的特征,2,第一节 最小二乘法的基本属性,一、有关回归的基本介绍,金融、经济变量之间的关系,大体上可以分为两种:,(,1,)函数关系:,Y=f(X,1,X,2,.,X,P,),,,其中,Y,的值是由,X,i,(,i=1,2.p,),所唯一确定的。,(,2,)相关关系,: Y=f(X,1,X,2,.,X,P,),,,这里,Y,的值不能由,X,i,(,i=1,2.p,),精确的唯一确定。,3,图,2-1,货币供应量和,GDP,散点图,4,图,2-1,表示的是我国货币供应量,M2,(,y,),与经过季节调整的,GDP,(,x,),之间的关系(数据为,1995,年第一季度到,2004,年第二季度的季度数据)。,5,但有时候我们想知道当,x,变化一单位时,,y,平均变化,多少,可以看到,由于图中所有的点都相对的集中在图中直线周围,因此我们可以以这条直线大致代表,x,与,y,之间的关系。如果我们能够确定这条直线,我们就可以用直线的斜率来表示当,x,变化一单位时,y,的变化程度,,由图中的点确定线的过程就是回归。,6,对于变量间的相关关系,我们可以根据大量的统计资料,找出它们在数量变化方面的规律(即“平均”的规律),这种统计规律所揭示的关系就是,回归关系,(,regressive relationship,),所表示的数学方程就是,回归方程,(,regression equation,),或,回归模型,(,regression model,)。,7,图,2-1,中的直线可表示为,(,2.1,),根据上式,在确定,、,的情况下,给定一个,x,值,我们就能够得到一个确定的,y,值,然而根据式(,2.1,)得到的,y,值与实际的,y,值存在一个误差(即图,2-1,中点到直线的距离)。,8,如果我们以表示误差,则方程(,2.1,)变为:,即:,其中,t,(,=1,2,3,.,T,),表示观测数。,(,2.2,),(,2.3,),式(,2.3,)即为一个简单的双变量回归模型(因其仅具有两个变量,x, y,),的基本形式。,9,其中,y,t,被称作因变量,(,dependent variable,)、,被解释变量,(,explained variable,)、,结果变量,(,effect variable,);,x,t,被称作自变量,(,independent variable,)、,解释变量,(,explanatory variable,)、,原因变量,(,causal variable,),10,、,为参数(,parameters,),或称回归系数(,regression coefficients,);,t,通常被称为随机误差项(,stochastic error term,),或随机扰动项(,random disturbance term,),简称误差项,,在回归模型中它是不确定的,服从随机分布(相应的,,y,t,也是不确定的,服从随机分布)。,11,为什么将,t,包含在模型中?,(,1,)有些变量是观测不到的或者是无法度量的,又或者影响因变量,y,t,的因素太多;,(,2,)在,y,t,的度量过程中会发生偏误,这些偏误在模型中是表示不出来的;,(,3,)外界随机因素对,y,t,的影响也很难模型化,比如:恐怖事件、自然灾害、设备故障等。,12,二、参数的最小二乘估计,(,一,),方法介绍,本章所介绍的是,普通最小二乘法,(,ordinary least squares,简记,OLS,),;,最小二乘法的基本原则是:最优拟合直线应该使各点到直线的距离的和最小,也可表述为距离的平方和最小。,假定根据这一原理得到的,、,估计值为 、 ,则直线可表示为,。,13,直线上的,y,t,值,记为 ,称为拟合值(,fitted value,),实际值与拟合值的差,记为 ,称为,残差,(,residual,) ,,可以看作是随机误差项 的估计值。,根据,OLS,的基本原则,使直线与各散点的距离的平方和最小,实际上是使残差平方和(,residual sum of squares,简记,RSS,),最小,即最小化:,RSS= = (2.4),14,根据最小化的一阶条件,将式,2.4,分别对、求偏导,并令其为零,即可求得结果如下,:,(,2.5,),(,2.6,),15,(二)一些基本概念,1.,总体(,the population,),和样本(,the sample,),总体是指待研究变量的所有数据集合,可以是有限的,也可以是无限的;而样本是总体的一个子集。,2,、总体回归方程(,the population regression function,,,简记,PRF,),,样本回归方程(,the sample regression function,,,简记,SRF,)。,16,总体回归方程(,PRF,),表示变量之间的真实关系,有时也被称为数据生成过程(,DGP,),,PRF,中的,、,值是真实值,方程为:,+,(,2. 7,),样本回归方程(,SRF,),是根据所选样本估算的变量之间的关系函数,方程为:,注意:,SRF,中没有误差项,根据这一方程得到的是总体因变量的期望值,(,2.8,),17,于是方程(,2.7,)可以写为:,(,2.9,),总体,y,值被分解为两部分:模型拟合值( )和残差项( )。,18,3.,线性关系,对线性的第一种解释是指:,y,是,x,的线性函数,比如,,y=,。,对线性的第二种解释是指:,y,是,参数,的一个线性函数,它可以不是变量,x,的线性函数。 比如,,y=,就是一个线性回归模型, 但 则不是。,在本课程中,线性回归一词总是对指参数,为线性的一种回归(即参数只以一次方出现),对解释变量,x,则可以是或不是线性的。,19,有些模型看起来不是线性回归,但经过一些基本代数变换可以转换成线性回归模型。例如,,(,2.10,),可以进行如下变换:,(,2.11,),令 、 、 ,则方程,(,2. 11,)变为:,(,2.12,),可以看到,模型,2.12,即为一线性模型。,20,4.,估计量(,estimator,),和估计值(,estimate,),估计量是指计算系数的方程;而估计值是指估计出来的系数的数值。,21,三、最小二乘估计量的性质和分布,(一),经典线性回归模型的基本假设,(,1,) ,即残差具有零均值;,(,2,),var,即残差具有常数方差,且对于所有,x,值是有限的;,(,3,),cov,,,即残差项之间在统计意义上是相互独立的;,(,4,),cov,,,即残差项与变量,x,无关;,(,5,),t,N ,即残差项服从正态分布,22,(二)最小二乘估计量的性质,如果满足假设,(1),(4),,由最小二乘法得到的估计量 、 具有一些特性,它们是最优线性无偏估计量(,Best Linear Unbiased Estimators,,,简记,BLUE,)。,23,估计量(,estimator,):,意味着 、 是包含着真实,、,值的估计量;,线性(,linear,):,意味着 、 与随机变量,y,之间是线性函数关系;,无偏(,unbiased,):,意味着平均而言,实际得到的 、 值与其真实值是一致的;,最优(,best,):,意味着在所有线性无偏估计量里,,OLS,估计量 具有最小方差。,24,(,三,) OLS,估计量的方差、标准差和其概率分布,1.OLS,估计量的方差、标准差。,给定假设,(1),(4),,估计量的标准差计算方程如下,:,其中, 是残差的估计标准差。,(,2.21,),(,2.22,),25,参数估计量的标准差具有如下的性质:,(,1,)样本容量,T,越大,参数估计值的标准差越小;,(,2,) 和 都取决于,s,2,。,s,2,是残差的方差估计量。,s,2,越大,残差的分布就越分散,这样模型的不确定性也就越大。如果,s,2,很大,这意味着估计直线不能很好地拟合散点;,26,(,3,)参数估计值的方差与 成反比。 其值越小,散点越集中,这样就越难准确地估计拟合直线;相反,如果 越大,散点越分散,这样就可以容易地估计出拟合直线,并且可信度也大得多。,比较图,2,2,就可以清楚地看到这点。,27,图,2,2,直线拟合和散点集中度的关系,28,(,4,) 项只影响截距的标准差,不影响斜率的标准差。理由是: 衡量的是散点与,y,轴的距离。 越大,散点离,y,轴越远,就越难准确地估计出拟合直线,与,y,轴的交点(即截距);反之,则相反。,29,2,OLS,估计量的概率分布,给定假设条件,(5),,即 ,则 也服从正态分布,系数估计量也是服从正态分布的:,(,2.30,),(,2.31,),30,需要,注意,的是:如果残差不服从正态分布,即假设,(5),不成立,但只要,CLRM,的其他假设条件还成立,且样本容量足够大,则通常认为系数估计量还是服从正态分布的。,其标准正态分布为:,(,2.32,),(,2.33,),31,但是,总体回归方程中的系数的真实标准差是得不到的,只能得到样本的系数标准差( 、 )。用样本的标准差去替代总体标准差会产生不确定性,并且,、 将不再服从正态分布,而服从自由度为,T-2,的,t,分布,其中,T,为样本容量,即:,(2.34),(2.35),32,3.,正态分布和,t,分布的关系,图,2-3,正态分布和,t,分布形状比较,33,从图形上来看,,t,分布的尾比较厚,均值处的最大值小于正态分布。,随着,t,分布自由度的增大,其对应临界值显著减小,当自由度趋向于无穷时,,t,分布就服从标准正态分布了。,所以正态分布可以看作是,t,分布的一个特例。,34,第二节 一元线性回归模型的统计检验,一、拟合优度,(goodness of fit statistics),检验,拟合优度可用,R,2,表示:模型所要解释的,是,y,相对于其均值的波动性,即,(总平方和,,the total sum of squares,,,简记,TSS,),,这一平方和可以分成两部分:,35,= +,(,2.36,),是被模型所解释的部分,称为回归平方和(,the explained sum of squares,,,简记,ESS,);,是不能被模型所解释的残差平方和(,RSS,),即,=,36,TSS,、,ESS,、,RSS,的关系以下图来表示更加直观一些:,图,2,4 TSS,、,ESS,、,RSS,的关系,37,拟合优度 ,因为,TSS=ESS+RSS,所以,R,2, (,2.39,),(,2.37,),(,2.38,),R,2,越大,说明回归线拟合程度越好,;,R,2,越小,说明回归线拟合程度越差。由上可知,通过考察,R,2,的大小,我们就能粗略地看出回归线的优劣。,38,但是,,R,2,作为拟合优度的一个衡量标准也存在一些问题:,(,1,)如果模型被重新组合,被解释变量发生了变化,那么,R,2,也将随之改变,因此具有不同被解释变量的模型之间是无法来比较,R,2,的大小的。,39,(,2,)增加了一个解释变量以后,,R,2,只会增大而不会减小,除非增加的那个解释变量之前的系数为零,但在通常情况下该系数是不为零的,因此只要增加解释变量,,R,2,就会不断的增大,这样我们就无法判断出这些解释变量是否应该包含在模型中。,(,3,),R,2,的值经常会很高,达到,0.9,或更高,所以我们无法判断模型之间到底孰优孰劣。,40,为了解决上面第二个问题,我们通常用调整过的,R,2,来代替未调整过的,R,2,。对,R,2,进行调整主要是考虑到在引进一个解释变量时,会失去相应的自由度。调整过的,R,2,用 来表示,公式为:,其中,T,为样本容量,,,K,为自变量个数,(,2.40,),41,二、假设检验,假设检验的,基本任务,是根据样本所提供的信息,对未知总体分布某些方面的假设做出合理解释,假设检验的,程序,是,先根据实际问题的要求提出一个论断,称为零假设(,null hypothesis,),或原假设,记为,H,0,(,一般并列的有一个备择假设(,alternative hypothesis,),记为,H,1,),然后根据样本的有关信息,对,H,0,的真伪进行判断,做出拒绝,H,0,或不能拒绝,H,0,的决策。,42,假设检验的基本思想是概率性质的反证法。,概率性质的反证法的,根据,是小概率事件原理。该原理认为“小概率事件在一次实验中几乎是不可能发生的”。在原假设,H,0,下构造一个事件(即检验统计量),这个事件在“原假设,H,0,是正确的”的条件下是一个小概率事件,如果该事件发生了,说明“原假设,H,0,是正确的”是错误的,因为不应该出现的小概率事件出现了,应该拒绝原假设,H,0,。,43,假设检验有两种方法:,置信区间检验法(,confidence interval approach,),和显著性检验法(,test of significance approach,)。,显著性检验法中最常用的是,t,检验,和,F,检验,前者是对单个变量系数的显著性检验,后者是对多个变量系数的联合显著性检验。,44,(一),t,检验,下面我们具体介绍对方程(,2.3,)的系数进行,t,检验的主要步骤。,(,1,)用,OLS,方法回归方程(,2.3,),得到,的估计值 及其标准差 。,(,2,)假定我们建立的零假设是: ,备则假设是 (这是一个双侧检验,),。,45,则我们建立的统计量,服从自由度为,T-2,的,t,分布。,(,3,)选择一个显著性水平(通常是,5%,),我们就可以在,t,分布中确定拒绝区域和非拒绝区域,如图,2-5,。如果选择显著性水平为,5%,,则表明有,5%,的分布将落在拒绝区域,46,图,2-5,双侧检验拒绝区域和非拒绝区域分布,47,(,4,)选定显著性水平后,我们就可以根据,t,分布表求得自由度为,T-2,的临界值,当检验统计值的绝对值大于临界值时,它就落在拒绝区域,因此我们拒绝的原假设,而接受备则假设。反之则相反。,可以看到,,t,检验的基本原理是如果参数的假设值与估计值差别很大,就会导致小概率事件的发生,从而导致我们拒绝参数的假设值。,48,(,二),置信区间法,仍以方程,2.3,的系数,为例,置信区间法的基本思想是建立围绕估计值,的一定的限制范围,推断总体参数,是否在一定的置信度下落在此区间范围内。,置信区间检验的主要步骤(所建立的零假设同,t,检验)。,49,(,1,)用,OLS,法回归方程(,2.3,),得到,的估计值 及其标准差 。,(,2,)选择一个显著性水平(通常为,5%,),这相当于选择,95%,的置信度。,查,t,分布表,获得自由度为,T-2,的临界值 。,(,3,)所建立的置信区间为( , ) (,2.41,),50,(,4,)如果零假设值 落在置信区间外,我们就拒绝 的原假设;反之,则不能拒绝。,需要注意的是,置信区间检验都是双侧检验,尽管在理论上建立单侧检验也是可行的。,51,(,三),t,检验与置信区间检验的关系,在显著性检验法下,当 的绝对值小于临界值时,即:,(,2.42,),时,我们不能拒绝原假设。,对式(,2.41,)变形,我们可以得到:,(,2.43,),可以看到,式(,2.43,)恰好是置信区间法的置信区间式(,2.41,),因此,实际上,t,检验法与置信区间法提供的结果是完全一样的。,52,(四)第一类错误和第二类错误,如果有一个零假设在,5,的显著性水平下被拒绝了,有可能这个拒绝是不正确的,这种错误被称为第一类错误,它发生的概率为,5,。,另外一种情况是,我们得到,95,的一个置信区间,落在这个区间的零假设我们都不能拒绝,当我们接受一个零假设的时候也可能犯错误,因为回归系数的真实值可能是该区间内的另外一个值,这一错误被称为第二类错误。,在选择显著性水平时人们面临抉择:降低犯第一类错误的概率就会增加犯第二类错误的概率。,53,(五),P,值,P,值是计量经济结果对应的精确的显著性水平。,P,值度量的是犯第一类错误的概率,即拒绝正确的零假设的概率。,P,值越大,错误地拒绝零假设的可能性就越大,;,p,值越小,拒绝零假设时就越放心。现在许多统计软件都能计算各种统计量的,p,值,如,Eviews,、,Stata,等。,54,第三节 多变量线性回归模型的统计检验,一、多变量模型的简单介绍,考察下面这个方程:,t=1,2,3.T (2.44),对,y,产生影响的解释变量共有,k-1,(,x,2t,x,3t,x,kt,),个,系数(,1,2,.,k,),分别衡量了解释变量对因变量,y,的边际影响的程度。,55,方程(,2.44,)的矩阵形式为,这里:,y,是,T,1,矩阵,,X,是,T,k,矩阵,,是,k,1,矩阵,,,u,是,T,1,矩阵,(,2.46,),56,在多变量回归中残差向量为:,(,2.47,),残差平方和为:,(,2.48,),57,可以得到多变量回归系数的估计表达式,(,2.49,),同样我们可以得到多变量回归模型残差的样本方差,(,2.50,),参数的协方差矩阵,(,2.51,),58,二、拟合优度检验,在多变量模型中,我们想知道解释变量一起对因变量,y,变动的解释程度。我们将度量这个信息的量称为多元判定系数,R,2,。,在多变量模型中,下面这个等式也成立:,TSS=ESS+RSS,(,2.52,),其中,,TSS,为总离差平方和;,ESS,为回归平方和,;,RSS,为残差平方和。,59,与双变量模型类似,定义如下:,即,,R,2,是回归平方和与总离差平方和的比值;与双变量模型唯一不同的是,,ESS,值与多个解释变量有关。,R,2,的值在,0,与,1,之间,越接近于,1,,说明估计的回归直线拟合得越好。,(,2.53,),60,可以证明:,(,2.54,),因此,,(,2.55,),61,三、假设检验,(一)、,t,检验,在多元回归模型中,,t,统计量为:,(,2.56,),均服从自由度为(,n-k,)的,t,分布。下面的检验过程跟双变量线性回归模型的检验过程一样。,62,(二)、,F,检验,F,检验的第一个用途是对所有的回归系数全为,0,的零假设的检验。第二个用途是用来检验有关部分回归系数的联合检验,就方法而言,两种用途是完全没有差别的,下面我们将以第二个用途为例,对,F,检验进行介绍。,63,为了解联合检验是如何进行的,考虑如下多元回归模型:,(,2.57,),这个模型称为无约束回归模型(,unrestricted regression,),,因为关于回归系数没有任何限制。,64,假设我们想检验其中,q,个回归系数是否同时为零,为此改写公式,(,2.57,),将所有变量分为两组,第一组包含,k-q,个变量(包括常项),第二组包含,q,个变量:,(,2.58,),65,如果假定所有,后,q,个系数都为零,即建立零假设: ,则修正的模型将变为有约束回归模型(,restricted regression,)(,零系数条件):,(,2.59,),66,关于上述零假设的检验很简单。若从模型中去掉这,q,个变量,对有约束回归方程,(,2.59,)进行估计的话,得到的误差平方和 肯定会比相应的无约束回归方程的误差平方和 大。如果零假设正确,去掉这,q,个变量对方程的解释能力影响不大。当然,零假设的检验依赖于限制条件的数目,即被设定为零的系数个数,以及无约束回归模型的自由度。,67,检验的统计量为:,(,2.60,),在这里,分子是误差平方和的增加与零假设所隐含的参数限制条件的个数之比;分母是模型的误差平方和与无条件模型的自由度之比。如果零假设为真,式(,2.60,)中的统计量将服从分子自由度为,q,,,分母自由度为,N-K,的,F,分布。,68,对回归系数的子集,的,F,检验与对整个回归方程,的,F,检验做法一样。选定显著性水平,比如,1,或,5,,然后将检验统计量的值,与,F,分布的临界值进行比较。如果统计量的值大于临界值,我们拒绝零假设,认为这组变量在统计上是显著的。一般的原则是,必须对两个方程分别进行估计,以便正确地运用这种,F,检验。,69,F,检验与,R,2,有密切的联系。回想,则,, (,2.61,),两个统计量具有相同的因变量,因此 将上面的两个方程代入(,2.60,),检验的统计量可以写成:,(,2.62,),70,第四节 预测,一、预测的概念和类型,(一)预测的概念,金融计量学中,所谓预测就是根据金融经济变量的过去和现在的发展规律,借助计量模型对其未来的发展趋势和状况进行描述、分析,形成科学的假设和判断。,71,(二)预测原理,条件期望(,conditional expectations,),在,t,期,Y,的,t+1,期的条件期望值记作 ,它表示的是在所有已知的,t,期的信息的条件下,,,Y,在,t+1,期的期望值。,假定在,t,期,我们要对因变量,Y,的下一期(,即,t+1,期)值进行预测,则记作,。,72,在,t,期对,Y,的下一期的所有预测值中,,Y,的条件期望值是最优的(即具有最小方差),因此,我们有:,(,2.65,),73,(三)预测的类型:,(,1,)无条件预测和有条件预测,所谓无条件预测,是指预测模型中所有的解释变量的值都是已知的,在此条件下所进行的预测。,所谓有条件预测,是指预测模型中某些解释变量的值是未知的,因此想要对被解释变量进行预测,必须首先预测解释变量的值。,74,(,2,)样本内,(,in-sample,),预测和样本外,(,out-of-sample,),预测,所谓样本内预测是指用全部观测值来估计模型,然后用估计得到的模型对其中的一部分观测值进行预测。,样本外预测是指将全部观测值分为两部分,一部分用来估计模型,然后用估计得到的模型对另一部分数据进行预测。,75,(,3,)事前预测和事后模拟,顾名思义,事后模拟就是我们已经获得要预测的值的实际值,进行预测是为了评价预测模型的好坏。,事前预测是我们在不知道因变量真实值的情况下对其的预测。,76,(,4,)一步向前(,one-step-ahead,),预测和多步向前(,multi-step-ahead,),预测,所谓一步向前预测,是指仅对下一期的变量值进行预测,例如在,t,期对,t+1,期的值进行预测,在,t+1,期对,t+2,期的值进行的预测等。,多步向前预测则不仅是对下一期的值进行预测,也对更下期值进行预测,例如在,t,期对,t+1,期、,t+2,期、,t+r,期的值进行预测。,77,二、预测的评价标准,、平均预测误差平方和(,mean squared error,,,简记,MSE,),平均预测误差绝对值(,mean absolute error,简记,MAE,)。,变量的,MSE,定义为:,MSE=,(,2.66,),其中,的预测值,,实际值,,T,时段数,78,变量的,MAE,定义如下:,MAE=,,,变量的定义同前 (,2.67,),可以看到,,MSE,和,MAE,度量的是误差的绝对大小,只能通过与该变量平均值的比较来判断误差的大小,误差越大,说明模型的预测效果越不理想。,79,2,、,Theil,不相等系数,其定义为: (,2.68,),注意,,,U,的分子就是,MSE,的平方根,而分母使得,U,总在,0,与,1,之间。如果,U=0,,,则对所有,的,t,,,完全拟合;如果,U=1,,,则模型的预测能力最差。因此,,Theil,不等系数度量的是误差的相对大小。,80,Theil,不等系数可以分解成如下有用的形式:,其中 分别是序列 和 的平均值和标准差, 是它们的相关系数,即:,(,2.69,),81,定义不相等比例如下:,(,2.70,),(,2.71,),(,2.72,),82,偏误比例 表示系统误差,因为它度量的是模拟序列与实际序列之间的偏离程度。,方差比例 表示的是模型中的变量重复其实际变化程度的能力。,协方差比例 度量的是非系统误差,即反映的是考虑了与平均值的离差之后剩下的误差。,理想的不相等比例的分布是 。,比例 分别称为,U,的偏误比例,方差比例,协方差比例。它们是将模型误差按特征来源分解的有效方法( )。,83,第五节:模型选择,一、“好”模型具有的特性,1,、节省性(,parsimony,),一个好的模型应在相对精确反应现实的基础上尽可能的简单。,2,、可识别性(,identifiability,),对于给定的一组数据,估计的参数要有唯一确定值。,84,3,、高拟合性(,goodness of fit,),回归分析的基本思想是用模型中包含的变量来解释被解释变量的变化,因此解释能力的高低就成为衡量模型好坏的重要的标准。,4,、理论一致性,(,theoretical consistency,),即使模型的拟合性很高,但是如果模型中某一变量系数的估计值符号与经济理论不符,那么这个模型就是失败的。,85,5,、预测能力(,predictive power,),著名经济学家弗里德曼(,M.Friedman,),认为:“对假设(模型)的真实性唯一有效的检验就是将预测值与经验值相比较”。因此一个好的模型必须有对未来的较强的预测能力。,86,二、用于预测的模型的选择,因为,R,2,将随着模型解释变量的增多而不断增加,按照此标准我们将不会得到最佳的预测模型。,因此必须对由于解释变量增多而造成自由度丢失施加一个惩罚项,其中的一个标准就是:,87,对,自由度丢失惩罚更为严格的标准:,Akaike,的信息准则(,Akaike,information criterion,简记为,AIC,)和,Schwarz,的信息准则(,Schwarz information criterion,简记为,SC,),88,其中 是方程随机误差项方差的估计值,,k,是解释变量的个数,,T,是样本容量。,可以看到,,AIC,和,SC,的惩罚项 、 比 更为严厉,而且相对来说,SC,标准对自由度的惩罚比,AIC,更为严厉。无论是,AIC,标准还是,SC,标准,从预测的角度来看,度量值越低,模型的预测会更好。,89,本章小节,本章内容在计量经济学中是最基础也是最重要的部分。在这一章中,我们首先介绍了最小二乘法及其估计量的性质和分布。在此基础上我们对一元线性回归模型的统计检验进行了详细讨论,接着将模型扩展,讨论了多元线性回归模型。在用模型进行预测时,主要有两种情况:即有条件预测和无条件预测。最后一小节我们简单介绍了模型的选择。,90,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 小学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!