网站大量收购独家精品文档,联系QQ:2885784924

计量经济学讲义第二讲.docxVIP

  1. 1、本文档共34页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

浙江工商大学金融学院姚耀军讲义系列

1

第二讲普通最小二乘估计量

一、基本概念:估计量与估计值

对总体参数的一种估计法则就是估计量。例如,为了估计总体均值为u,我们可以抽取一个容量为N的样本,令Yi为第i次观测值,则u的一个很自然的

估计量就是。A、B两同学都利用了这种

估计方法,但手中所掌握的样本分别是(y,y,...,y)与(y,y,...,y)。A、B两同学分别计算出估计值

与。因此,在上例中,估计量

是随机的,而A,B是该随机变量可能的取值。估计量所服从的分布称为抽样分布。

如果真实模型是:y=β0+β1x+ε,其中β0,β1是待估计的参数,而相应的OLS估计量就是:

我们现在的任务就是,基于一些重要的假定,来考察上述OLS估计量所具有的一些性质。

二、高斯-马尔科夫假定

浙江工商大学金融学院姚耀军讲义系列

2

●假定一:真实模型是:y=β0+β1x+ε。有三种情况属于对该假定的违背:(1)遗漏了相关的解释变量或者增加了无关的解释变量;(2)y与x间的关系是非线性的;(3)β0,β1并不是常数。

●假定二:在重复抽样中,(x1,x2,...,xN)被预先固定下来,即(x1,x2,...,xN)是非随机的(进一步的阐释见附录),显然,如果解释变量含有随机的测量误差,那么该假定被违背。还存其他的违背该假定的情况。

笔记:

(x1,x2,...,xN)是随机的情况更一般化,此时,高斯-马尔科夫假定二被更改为:对任意i,j,xi与εj不相关,此即所谓的解释变量具有严格外生性。显然,当(x1,x2,...,xN)非随机时,xi与εj必定不相关,这是因为εj是随机的。

●假定三:误差项期望值为0,即E(εi)=0,i=1,2,...,N。

笔记:

1、当(x1,x2,...,xN)随机时,标准假定是:E(εix1,x2,...,xN)=0,i=1,2,...,N

根据迭代期望定律有:E[E(εix1,x2,...,xN)]=E(εi),因此,如果E(εix1,x2,...,xN)=0成立,必定有:E(εi)=0。

浙江工商大学金融学院姚耀军讲义系列

3

另外,根据迭代期望定律也有:

E[E(εixjx1,x2,...,xN)]=E(εixj)

而E(εixjx1,x2,...,xN)=xjE(εix1,x2,...,xN)。故有:

→Cov(εi,xj)=E(εixj)-E(εi)E(xj)=0

因此,在(x1,x2,...,xN)是随机的情况下,假定二、三可以修正为一个假定:E(εix1,x2,...,xN)=0。

2、所谓迭代期望定律是指:如果信息集Θ≤Ω,则有E[E(XΩ)Θ]=E(XΘ)。为了理解上述等式,考虑一个极端

情况:Ω包含了全部的信息,此时X丧失了随机性,故E(XΩ)=X,因此必有E[E(XΩ)Θ]=E(XΘ)。无条件期望所对应的信息集是空集,因此E[E(XΩ)]=E(X)。

3、回忆第一讲,对模型y=β0+β1x+ε,在OLS法下我们一定能保证:(1)残差均值为零;(2)残差与x样本不相关。残差是对误差的近似,如果假定二、三不成立,即误差项与解释变量相关,误差项期望值不为零,显然此时残差并不是对误差项的有效的近似,换句话说,此时OLS估计量是有严重问题的。因此,假定二、三非常重要。

●假定四=δ2,即所谓的同方差假定。

笔记:

4

在(x1,x2,...,xN)是随机的情况下,该假定修订为:Var(εix1,x2,...,xN)=δ2

●假定五:Cov(εi,εj)=0,i≠j,即所谓的序列不相关假定。

笔记:

在(x1,x2,...,xN)是随机的情况下,该假定修订为:Cov(εi,εjx1,x2,...,xN)=0,i≠j

●假定六:Σ(xi-x)2≠0,在多元回归中,该假定演变为XX’的逆存在,即各解释变量不完全共线。

三、高斯-马尔科夫定理

当高斯-马尔科夫假定成立时,在所有线性无偏估计量中,OLS估计量方差最小。或者说,OLS估计量是最优线性无偏估计量(bestlinearunbias

文档评论(0)

文档小天才 + 关注
实名认证
文档贡献者

就是文档小天才

1亿VIP精品文档

相关文档