IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> 二、简单线性回归模型(计量经济学学习笔记) -> 正文阅读

[数据结构与算法]二、简单线性回归模型(计量经济学学习笔记)

研究经济变量之间相互数量关系最基本的方法之一是回归分析。

①回归分析与回归函数


1.1相关分析与回归分析


1.1.1函数关系与相关关系

经济变量之间的相互依存关系有两种:1.确定性的函数关系 2.不确定性的统计关系,也称相关关系
函数关系可表示为Y=f(X)
相关关系可表示为Y=f(X,u) ,其中u为随机变量(或Y=f(X)+u)
相关关系可分为以下类型:

  1. 从涉及的变量数量:简单相关关系?与?多重相关复相关
  2. 从变量相关关系: 线性相关?与?非线性相关
  3. 从相关关系变化方向: 正相关?与?负相关
  4. 从变量相关程度:完全相关不完全相关不相关

1.1.2简单线性相关

1.1.2.1总体相关系数与样本相关系数

两个变量的相关程度用相关系数度量
对总体
总体相关系数 ρ = C o v ( X , Y ) V a r ( X ) V a r ( Y ) \displaystyle ρ= \frac{Cov(X,Y)}{\sqrt{Var(X)Var(Y)}} ρ=Var(X)Var(Y) ?Cov(X,Y)?
其中Var(X)是变量X的方差,Var(Y)是变量Y的方差,Cov(X,Y)是变量X和Y的协方差。
对样本
样本相关系数 r X Y = n ∑ X i Y i ? ∑ X i ∑ Y i n ∑ X i 2 ? ( ∑ X i ) 2 n ∑ Y i 2 ? ( ∑ Y i ) 2 \displaystyle r_{XY}=\frac{n\sum X_iY_i - \sum Xi \sum Y_i}{\sqrt{n \sum{X_i}^2 -(\sum X_i)^2}\sqrt{n \sum{Y_i}^2 -(\sum Y_i)^2}} rXY?=nXi?2?(Xi?)2 ?nYi?2?(Yi?)2 ?nXi?Yi??XiYi??

r X Y = ∑ ( X i ? X  ̄ ) ( ( Y i ? Y  ̄ ) ∑ ( X i ? X  ̄ ) 2 ∑ ( Y i ? Y  ̄ ) 2 \displaystyle r_{XY}=\frac{\sum (X_i-\overline{X})((Y_i-\overline{Y})}{\sqrt{\sum{(X_i - \overline{X})}^2 \sum{(Y_i - \overline{Y})}^2}} rXY?=(Xi??X)2(Yi??Y)2 ?(Xi??X)((Yi??Y)?
其中X_i和Y_i分别是变量X和Y的样本观测值, X  ̄ \overline{X} X Y  ̄ \overline{Y} Y分别是变量X和Y的样本观测值的平均值;n为样本的个数,也称样本容量。
这样计算的样本相关系数是总体相关系数的一致估计。

1.1.2.2相关系数特点

1. r X Y = r Y X r_{XY}=r_{YX} rXY?=rYX?
2.相关系数只反映线性相关程度,不能说明非线性相关关系。
3.相关系数不能确定变量的因果关系。
4.样本相关系数是对总体相关系数的估计。


1.1.3回归分析

相关分析不能说明变量间相关关系的具体形式,相关关系表明变量间相关关系的性质和程度。要具体测定变量之间相关关系的具体形式,还要用到回归分析的方法。
回归分析研究的是总体中解释变量与被解释变量之间客观存在的协变规律性。


1.2总体回归函数

总体回归函数的条件期望表示方式:
E ( Y ∣ X i ) = f ( X i ) = β 1 + β 2 X i E(Y|X_i)=f(X_i)=β_1+β_2X_i E(YXi?)=f(Xi?)=β1?+β2?Xi? β 1 为 截 距 系 数 , β 2 为 斜 率 系 数 β_1为截距系数,β_2为斜率系数 β1?β2?
条件期望满足此方程式的函数称为总体回归函数(PRF)(population regression function)


1.3 随机扰动项μ

μ i = Y i ? E ( Y ∣ X i ) μ_i=Y_i-E(Y|X_i) μi?=Yi??E(YXi?) Y i = E ( Y ∣ X i ) + μ i Y_i=E(Y|X_i)+μ_i Yi?=E(YXi?)+μi?
如果函数是线性函数,则有
μ i = Y i ? β 1 ? β 2 X i μ_i=Y_i-β_1-β_2X_i μi?=Yi??β1??β2?Xi? Y i = β 1 + β 2 X i + μ i Y_i=β_1+β_2X_i+μ_i Yi?=β1?+β2?Xi?+μi?
随机扰动项 μ i μ_i μi?表示那些对Y有影响但是没有纳入模型的诸多因素的综合影响。
Y i = E ( Y ∣ X i ) + μ i Y_i=E(Y|X_i)+μ_i Yi?=E(YXi?)+μi?式子两边同取对X_i的条件期望,则有
E ( Y ∣ X i ) = E E(Y|X_i)=E E(YXi?)=E { E ( Y ∣ X i ) E(Y|X_i) E(YXi?) } + E ( μ i ∣ X i ) = E ( Y ∣ X i ) + E ( μ i ∣ X i ) +E(μ_i|X_i)=E(Y|X_i)+E(μ_i|X_i) +E(μi?Xi?)=E(YXi?)+E(μi?Xi?)
即暗含 E ( Y ∣ X i ) = 0 E(Y|X_i)=0 E(YXi?)=0的假定条件,即回归曲线是通过Y的条件期望或条件均值的。

  • 在总体回归函数中引入随机扰动项的原因:
    1.作为位置影响因素的代表。
    2.作为无法取得数据的已知因素的代表。
    3.’作为众多细小影响因素的综合代表。
    4.模型设定误差。
    5.经济现象的内在随机性。

1.4样本回归函数

Y的样本观测值的条件均值解释变量X而变动的轨迹,称为样本回归线
把被解释变量Y的样本条件均值表示为解释变量X的某种函数,称为样本回归函数(SRF)。(Sample regression function)
如果为线性函数:
Y i ^ = β 1 ^ + β 2 ^ X i \hat{Y_i}=\hat{β_1}+\hat{β_2}X_i Yi?^?=β1?^?+β2?^?Xi?
实际观测的被解释变量值 Y i Y_i Yi?不完全等于样本条件均值 Y i ^ \hat{Y_i} Yi?^?,二者之差可以用 e i e_i ei?表示。
则: Y i ? Y i ^ = e i Y_i -\hat{Y_i}=e_i Yi??Yi?^?=ei? Y i = β 1 ^ + β 2 ^ X i + e i Y_i=\hat{β_1}+\hat{β_2}X_i+e_i Yi?=β1?^?+β2?^?Xi?+ei?
需要明确:样本回归函数与总体回归函数有所区别。总体回归函数虽然未知,但是是确定的:样本回归线随抽样波动而变化,可以有多条。总体回归函数的参数 β 1 和 β 2 β_1和β_2 β1?β2?是确定的常数,样本回归函数的参数 β 1 ^ 和 β 2 ^ \hat{β_1}和\hat{β_2} β1?^?β2?^?是随机变量。SRF与PRF总是会存在差异。


②简单线性回归模型的参数估计


2.1简单线性回归的基本假定:

五个基本假定:

  • 1.零均值假定 给定解释变量 X i X_i Xi?,随机扰动项 u i u_i ui?的条件均值始终为零。
    ??????????? E ( u i ∣ X i ) = 0 E(u_i|X_i)=0 E(ui?Xi?)=0
  • 2.同方差假定 对于每个给定的 X i X_i Xi?,随机扰动项 u i u_i ui?的条件期方差都等于一个常数 σ 2 σ^2 σ2
    ??????????? V a r ( u i ∣ X i ) = E [ u i ? E ( u i ∣ X i ) ] 2 = E ( u i 2 ) = σ 2 Var(u_i|X_i)=E[u_i-E(u_i|X_i)]^2=E(u_i^2)=σ^2 Var(ui?Xi?)=E[ui??E(ui?Xi?)]2=E(ui2?)=σ2
  • 3.无自相关假定 随机扰动项 u i u_i ui?的逐次值互不相关,或者说对于所有的i和j(i≠j), u i 和 u j 的 协 方 差 为 零 。 u_i和u_j的协方差为零。 ui?uj?
    ??????????? C o v ( u i , u j ) = E [ u i ? E ( u i ) ] [ u j ? E ( u j ) ] = E ( u i u j ) = 0 Cov(u_i,u_j)=E[u_i-E(u_i)][u_j-E(u_j)]=E(u_iu_j)=0 Cov(ui?,uj?)=E[ui??E(ui?)][uj??E(uj?)]=E(ui?uj?)=0
  • 4.随机扰动项 u i u_i ui?与解释变量 X i X_i Xi?不相关,可表示
    为?????????? C o v ( u i , X i ) = E [ u i ? E ( u i ) ] [ X i ? E ( X i ) ] = 0 Cov(u_i,X_i)=E[u_i-E(u_i)][X_i-E(X_i)]=0 Cov(ui?,Xi?)=E[ui??E(ui?)][Xi??E(Xi?)]=0
  • 5.正态性假定 即假定随机扰动项服从期望为0,方差为 σ 2 σ^2 σ2的正态分布,表示为
    ?????????? u i u_i ui?~ N ( 0 , σ 2 ) N(0,σ^2) N(0,σ2)

满足此五个假设的线性回归模型,称为古典线性回归模型(CLRM)

其中四个假定,也可以用 Y i Y_i Yi?表示:
对零均值假定有: E ( Y i ∣ X i ) = β 1 + β 2 X i E(Y_i|X_i)=β_1+β_2X_i E(Yi?Xi?)=β1?+β2?Xi?
对同方差假定有: V a r ( Y i ∣ X i ) = σ 2 Var(Y_i|X_i)=σ^2 Var(Yi?Xi?)=σ2
对无自相关假定有: C o v ( Y i , Y j ) = 0 ( i ≠ j ) Cov(Y_i,Y_j)=0(i≠j) Cov(Yi?,Yj?)=0(i?=j)
对正态性假定有: Y Y Y~ N ( β 1 + β 2 X i , σ 2 ) N(β_1+β_2X_i,σ^2) N(β1?+β2?Xi?,σ2)


2.2普通最小二乘估计

用产生样本概率最大的原则去确定样本回归函数,称为极大似然准则;
用估计剩余平方和最小的原则确定样本回归函数,称为最小二乘准则。
最小二乘法,也称最小二乘估计(OLS或OLSE)
最小二乘法使样本回归函数尽可能地接近总体回归函数,需满足最小二乘准则,使剩余平方和 Σ e i 2 Σe_i^2 Σei2?最小。

m i n Σ e i 2 = m i n Σ ( Y i ? Y i ^ ) 2 = m i n Σ ( Y i ? β 1 ^ ? β 2 ^ X i ) 2 minΣe_i^2=minΣ(Y_i-\hat{Y_i})^2=minΣ(Y_i-\hat{β_1}-\hat{β_2}X_i)^2 minΣei2?=minΣ(Yi??Yi?^?)2=minΣ(Yi??β1?^??β2?^?Xi?)2

β 2 ^ = Σ ( X i ? X  ̄ ) ( Y i ? Y  ̄ ) Σ ( X i 2 ? X ^ ) = x i y i x i 2 \hat{β_2}=\frac{Σ(X_i-\overline{X})(Y_i-\overline{Y})}{Σ(X_i^2-\hat{X})}=\frac{x_iy_i}{x_i^2} β2?^?=Σ(Xi2??X^)Σ(Xi??X)(Yi??Y)?=xi2?xi?yi??

β 1 ^ = Y  ̄ ? β 2 ^ X  ̄ \hat{β_1}=\overline{Y}-\hat{β_2}\overline{X} β1?^?=Y?β2?^?X


2.3OLS回归性质

用普通最小二乘法拟合的样本回归线有以下性质

  1. 样本回归线通过样本均值。
  2. 估计值 Y i ^ \hat{Y_i} Yi?^?的均值 Σ Y i ^ n \frac{Σ\hat{Y_i}}{n} nΣYi?^??等于实际 Y i Y_i Yi?的均值。
  3. 剩余项 e i e_i ei?的均值的为0。
  4. 被解释变量估计值 Y i ^ \hat{Y_i} Yi?^?与剩余项 e i e_i ei?不相关。
  5. 解释变量 X i X_i Xi?与剩余项 e i e_i ei?不相关。

2.4最小二乘估计量的统计性质


2.4.1 参数估计量的评价标准

选择参数估计量时应考虑以下一些标准:
1.无偏性
如果参数的估计量 β ^ \hat{β} β^?的期望等于参数的真实值β,即 E ( β ^ ) = β E(\hat{β})=β E(β^?)=β,则称 β ^ \hat{β} β^?是参数β的无偏估计量
如果参数估计量 β ? β^* β?是期望值不等于参数β的真实值,则称 β ? β^* β?是有偏的,其偏倚为 E ( β ? ) ? β E(β^*)-β E(β?)?β,也称系统误差。无偏即无系统误差。
计量经济研究中应尽可能寻找符合无偏性要求的参数估计量。
2.有效性
一个估计量若不仅有无偏性,而且具有最小方差性,则称这个估计量为有效估计量
即对于参数β的无偏估计量 β ^ \hat{\beta} β^?,如果对于参数的任意一个无偏估计量 β ? \beta^* β?,都有 V a r ( β ^ ) ≤ V a r ( β ? ) Var(\hat{β})≤Var(β^*) Var(β^?)Var(β?),则称 β ^ \hat{β} β^?是参数β的有效估计量
或者说, β ^ \hat{β} β^? β ? β^* β?有效。
3.一致性
样本容量趋于无穷大时,如果估计量, β ^ \hat{β} β^?的抽样分布依概率收敛于总体参数真实值β,即
P lim ? n → ∞ β ^ = β P \displaystyle \lim_{n \rightarrow \infty} \hat{\beta}=β Pnlim?β^?=β
lim ? n → ∞ P [ ( ∣ β ^ ? β ∣ ) < ε ] = 1 \displaystyle \lim_{n \rightarrow \infty}P[(|\hatβ-β|)<ε]=1 nlim?P[(β^??β)ε]=1
也就是说,当样本容量n→∞时,估计量 β ^ \hat{β} β^?与总体参数真实值β的距离 β ^ ? β \hat{β}-β β^??β的绝对值小于任意给定正数ε的概率等于1,则称估计量 β ^ \hat{β} β^?为一致估计量。
(也称相合性,相合估计量)


2.4.2OLS估计量的统计特性

在古典假定完全满足的情况下,回归模型参数的最小二乘估计量具有以下统计性质。
1.线性特性
β 2 ^ = x i y i x i 2 \hat{β_2}=\frac{x_iy_i}{x_i^2} β2?^?=xi2?xi?yi??,详细过程略
可以有 β 2 ^ = Σ k i Y i \hat{β_2}=Σk_iY_i β2?^?=Σki?Yi?,其中 k i k_i ki?是一组常数,所以 β 2 ^ \hat{β_2} β2?^? Y i Y_i Yi?的线性相关函数。
类似也有, β 1 ^ \hat{β_1} β1?^? Y i Y_i Yi?的线性相关函数。
2.无偏性
E ( β 2 ^ ) = β 2 E(\hat{β_2})=β_2 E(β2?^?)=β2?
E ( β 1 ^ ) = β 1 E(\hat{β_1})=β_1 E(β1?^?)=β1?
这表明最小二乘法估计的参数 β 1 β_1 β1? β 2 β_2 β2?的期望值等于总体回归函数参数的真实值 β 1 β_1 β1? β 2 β_2 β2?,所以OLS估计式是无偏估计量。
3.有效性
普通最小二乘估计 β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?具有最小的方差。证明过程略。
也可以用标准误差度量估计量的精确性,标准误差(standard error)是方差的平方根,可以用SE表示。
V a r ( β 2 ^ ) = σ 2 Σ x i 2 Var(\hat{β_2})=\frac{σ^2}{Σx_i^2} Var(β2?^?)=Σxi2?σ2?
V a r ( β 1 ^ ) = σ 2 ∑ X i 2 n ∑ x i 2 Var(\hat{β_1})=σ^2 \frac{\sum{X_i^2}}{n \sum{x_i^2}} Var(β1?^?)=σ2nxi2?Xi2??
S E ( β 2 ^ ) = σ ∑ x i 2 SE(\hat{β_2})=\frac{σ}{\sqrt{\sum x_i^2}} SE(β2?^?)=xi2? ?σ?
S E ( β 1 ^ ) = σ ∑ X i 2 n ∑ x i 2 SE(\hat{β_1})=σ \sqrt{\frac{\sum X_i^2}{n \sum x_i^2}} SE(β1?^?)=σnxi2?Xi2?? ?
其中 σ 2 σ^2 σ2作为总体随机扰动项 u i u_i ui?的方差是未知的,也需要通过样本估计。
σ 2 ^ = ∑ e i 2 n ? 2 \hat{σ^2}=\frac{\sum e_i^2}{n-2} σ2^=n?2ei2??计算的 σ 2 σ^2 σ2的估计值 σ 2 ^ \hat{σ^2} σ2^是对 σ 2 σ^2 σ2的无偏估计。
e i 2 e_i^2 ei2?是剩余平方和;n-2是自由度。

综上,OLS估计量 β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?是总体参数 β 1 β_1 β1? β 2 β_2 β2?的最佳线性无偏估计量。(Best linear unbiased estimator,BLUE)。这个结论也称高斯-马尔可夫定理


③拟合优度的度量

所估计样本回归线对样本观测数据拟合的优劣程度,称为样本回归线的拟合优度。


3.1总变差的分解

  • 被解释变量Y的样本观测值与其平均值的离差平方和 ∑ ( Y i ? Y  ̄ ) 2 = ∑ y i 2 \sum{(Y_i-\overline{Y})^2}=\sum{y_i^2} (Yi??Y)2=yi2?,称为总变差总离差平方和(total sum of squares)。用TSS表示。
  • 被解释变量Y的样本估计值与其平均值的离差平方和 ∑ ( Y i ^ ? Y  ̄ ) 2 = ∑ y i ^ 2 \sum{(\hat{Y_i}-\overline{Y})}^2=\sum{\hat{y_i}^2} (Yi?^??Y)2=yi?^?2,称为回归解释平方和。是由模型回归线作出解释的变差,用ESS表示。
  • 被解释变量观测值与估计值之间的平方和 ∑ ( Y i ? Y i ^ ) 2 = ∑ e i 2 \sum{(Y_i-\hat{Y_i})}^2= \sum{e_i^2} (Yi??Yi?^?)2=ei2?,是回归线未作出解释的平方和,称为残差平方和(residualc sum of squares),用RSS*表示。(未解释平方和)
    三者关系:

TSS=ESS+RSS

∑ ( Y i ? Y  ̄ ) 2 = ∑ ( Y i ^ ? Y  ̄ ) 2 + ∑ ( Y i ? Y i ^ ) 2 \sum{(Y_i-\overline{Y})}^2=\sum{(\hat{Y_i}-\overline{Y})}^2+\sum{(Y_i-\hat{Y_i})}^2 (Yi??Y)2=(Yi?^??Y)2+(Yi??Yi?^?)2

∑ y i 2 = ∑ y i ^ 2 + ∑ e i 2 \sum{y_i^2}=\sum{\hat{y_i}^2}+\sum{e_i^2} yi2?=yi?^?2+ei2?


3.2可决系数

TSS=ESS+RSS
1 = E S S T S S + R S S T S S = 解 释 平 方 和 的 权 重 + 未 解 释 平 方 和 的 权 重 1 = \frac{ESS}{TSS}+\frac{RSS}{TSS}=解释平方和的权重+未解释平方和的权重 1=TSSESS?+TSSRSS?=+
其中解释平方和的权重可以作为综合度量回归模型对样本观测值拟合优度的指标,这一比例成为可决系数。在简单线性回归中一般用 r 2 r^2 r2 R 2 R^2 R2表示,即

R 2 = ∑ ( Y i ^ ? Y  ̄ ) 2 ∑ ( Y i ? Y  ̄ ) 2 = y i 2 ^ y i 2 R^2=\frac{\sum{(\hat{Y_i}-\overline{Y})}^2}{\sum{(Y_i-\overline{Y})}^2}=\frac{\hat{y_i^2}}{y_i^2} R2=(Yi??Y)2(Yi?^??Y)2?=yi2?yi2?^??

R 2 = 1 ? ∑ ( Y i ? Y i ^ ) 2 ∑ ( Y i ? Y  ̄ ) 2 = 1 ? ∑ e i 2 ∑ y i 2 R^2=1-\frac{\sum{(Y_i-\hat{Y_i})}^2}{\sum{(Y_i-\overline{Y})^2}}=1-\frac{\sum{e_i^2}}{\sum{y_i^2}} R2=1?(Yi??Y)2(Yi??Yi?^?)2?=1?yi2?ei2??


3.3可决系数与相关系数的关系

一元线性回归中,可决系数 R 2 R^2 R2在数值上,是简单线性相关系数r的平方。即

r = ± R 2 r=± \sqrt{R^2} r=±R2 ?
但二者在概念上是明显区别的。
r X Y = ∑ ( X i ? X  ̄ ) ( Y i ? Y  ̄ ) ∑ ( X i ? X  ̄ ) 2 ∑ ( Y i ? Y  ̄ ) 2 r_{XY}=\frac{\sum(X_i-\overline X)(Y_i-\overline Y)}{\sqrt{\sum{(X_i-\overline{X})^2} \sum{(Y_i-\overline Y)^2}}} rXY?=(Xi??X)2(Yi??Y)2 ?(Xi??X)(Yi??Y)?

R 2 = [ ∑ ( X i ? X  ̄ ) ( Y i ? Y  ̄ ) ] 2 ∑ ( X i ? X  ̄ ) 2 ∑ ( Y i ? Y  ̄ ) 2 R^2=\frac{[\sum(X_i-\overline X)(Y_i-\overline Y)]^2}{\sum{(X_i-\overline{X})^2} \sum{(Y_i-\overline Y)^2}} R2=(Xi??X)2(Yi??Y)2[(Xi??X)(Yi??Y)]2?

可决系数取值范围为 0 ≤ R 2 ≤ 1 0≤R^2≤1 0R21;不相关系数可正可负,取值范围为 ? 1 ≤ r ≤ 1 -1≤r≤1 ?1r1

④回归系数的假设检验和区间估计

4.1 OLS估计的分布性质

在古典假定条件下,假定随机扰动项 u i u_i ui?服从正态分布,则 Y i Y_i Yi?也服从正态分布。
又因为 β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?都是 Y i Y_i Yi?的线性函数,所以即使在小样本情况下, β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?也服从正态分布。在大样本情况下,即使 Y i Y_i Yi?不服从正态分布, β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?也会趋于正态分布。
β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?的具体分布可表示为:

β 1 ^ \hat{β_1} β1?^?~ N ( β 1 , σ 2 ∑ X i 2 n ∑ x i 2 ) N(β_1,σ^2 \frac{\sum{X_i^2}}{n \sum{x_i^2}}) N(β1?,σ2nxi2?Xi2??)

β 2 ^ \hat{β_2} β2?^?~ N ( β 2 , σ 2 Σ x i 2 ) N(β_2,\frac{σ^2}{Σx_i^2}) N(β2?,Σxi2?σ2?)

β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?做标准化转换:

z 1 = β 1 ^ ? β 1 S E ( β 1 ^ ) z_1=\frac{\hat{β_1}-β_1}{SE(\hat{β_1})} z1?=SE(β1?^?)β1?^??β1??~ N ( 0 , 1 ) N(0,1) N(0,1)

z 2 = β 2 ^ ? β 2 S E ( β 2 ^ ) z_2=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} z2?=SE(β2?^?)β2?^??β2??~ N ( 0 , 1 ) N(0,1) N(0,1)

β 1 ^ \hat{β_1} β1?^? β 2 ^ \hat{β_2} β2?^?的方差即标准正态变量 z 1 z_1 z1? z 2 z_2 z2?的确定,都要涉及随机扰动项 u i u_i ui?的方差 σ 2 σ^2 σ2,而总体随机扰动项 u i u_i ui?是随机变量,其方差是未知的,只能通过 σ 2 ^ = ∑ e i 2 n ? 2 \hat{σ^2}=\frac{\sum e_i^2}{n-2} σ2^=n?2ei2??计算 σ 2 σ^2 σ2的无偏估计 σ 2 ^ \hat{σ^2} σ2^
在大样本情况下,用无偏估计 σ 2 ^ \hat{σ^2} σ2^替代 σ 2 σ^2 σ2,可计算参数估计值的标准误差,这个时候标准化后的 z 1 z_1 z1? z 2 z_2 z2?仍可视为标准正态分布变量。
小样本情况下,其不再服从正态分布,而是服从自由度为n-2的t分布。t~ t ( n ? 2 ) t(n-2) t(n?2)


4.2 回归系数的假设检验

对回归系数假设检验的基本思路是,在所估计样本的回归系数概率分布性质已确定的基础上,在对总体回归系数某种原假设(或称零假设)成立的条件下,利用适当的有明确概率分布的统计量和给定的显著性水平α,构造一个小概率事件。判断原假设合理与否,是基于“小概率事件不会发生”的原理。如果小概率事件发生了,就拒绝原假设,不拒绝备择假设。

对总体参数假设检验可能有不同的要求,可以检验总体参数是否等于、大于或小于某特定数值 β ? β^* β?,这时假设检验分别为 H 0 : β 2 = β 2 ? H_0:β_2=β_2^* H0?:β2?=β2?? H 0 : β 2 ≥ β 2 ? H_0:β_2≥β_2^* H0?:β2?β2?? H 0 : β 2 ≤ β 2 ? H_0:β_2≤β_2^* H0?:β2?β2??
也可以检验总体参数是否等于0。
原假设和备择假设的设定方式不同,判断是否拒绝区域的方式也不同。
设定 H 0 : β 2 = β 2 ? H_0:β_2=β_2^* H0?:β2?=β2?? H 1 : β 2 ≠ β ? H_1:β_2≠β^* H1?β2??=β?,进行的是双侧检验;
设定 H 0 : β 2 ≥ β 2 ? H_0:β_2≥β_2^* H0?:β2?β2?? H 1 : β 2 < β 2 ? H_1:β_2<β_2^* H1?β2?β2??
或设定 H 0 : β 2 ≤ β 2 ? H_0:β_2≤β_2^* H0?:β2?β2?? H 1 : β 2 > β 2 ? H_1:β_2>β_2^* H1?β2?β2??,进行的是单侧检验。

**在计量经济学中,为了检验所建立的回归模型中解释变量对被解释变量是否有显著影响,经常把回归系数 β 2 = 0 β_2=0 β2?=0作为原假设。

假设检验的三种方法:①临界值②置信区间③P值

临界值法需要先 构建检验统计量。

  • 构建z统计量
    σ 2 σ^2 σ2已知,或样本容量充分大时,根据样本计算的 z ? z^* z?有, z ? = β 2 ^ ? β 2 S E ( β 2 ^ ) z^*=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} z?=SE(β2?^?)β2?^??β2??~ N ( 0 , 1 ) N(0,1) N(0,1)
    可利用服从正态分布的 z ? z^* z?统计量。从正态分布表查z的临界值。如给定显著性水平α=0.05,则z临界值为1.96。把根据样本计算的z^*与z的临界值作比较,如果 ? 1.96 ≤ z ? ≤ 1.96 -1.96≤z^*≤1.96 ?1.96z?1.96,就不能拒绝原假设 H 0 : β 2 = β 2 ? H_0:β_2=β_2^* H0?:β2?=β2??,即认为 β 2 β_2 β2?显著不等于 β 2 ? β_2^* β2??

  • 计量经济研究中,通常面临的是 σ 2 σ^2 σ2未知,且样本容量较小。通常使用 σ 2 ^ = ∑ e i 2 n ? 2 \hat{σ^2}=\frac{\sum e_i^2}{n-2} σ2^=n?2ei2??去替代 σ 2 σ^2 σ2,构建的是t统计量。
    t = β 2 ^ ? β 2 S E ( β 2 ^ ) t=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} t=SE(β2?^?)β2?^??β2??~ t ( n ? 2 ) t(n-2) t(n?2)
    由t分布表可知,自由度为n-2对应概率为α/2的临界值 t α / 2 ( n ? 2 ) t_{α/2}(n-2) tα/2?(n?2)
    如果 ? t α / 2 ≤ t ≤ t α / 2 -t_{α/2}≤t≤t_{α/2} ?tα/2?ttα/2?,则不能拒绝原假设 H 0 : β 2 = 0 H_0:β_2=0 H0?:β2?=0,即认为解释变量对被解释变量没有显著性影响;反之,如果 t < ? t α / 2 t<-t_{α/2} t?tα/2? t > t α / 2 t>t_{α/2} ttα/2?,就拒绝 H 0 : : β 2 = 0 H_0::β_2=0 H0?:β2?=0,不拒绝 H 1 : : β 2 ≠ 0 H_1::β_2≠0 H1?:β2??=0,即认为对应解释变量对被解释变量有显著影响。


4.3回归系数的区间估计

参数的区间估计与假设检验既有联系也有区别。
假设检验是根据已知样本观测值,判断它是否与总体参数作的某一个假设相一致;而参数区间估计主要回答什么样的区间包含总体参数真实值以及可靠程度问题。
对回归系数的区间估计,可分为以下三种情况:

  1. 当总体方差 σ 2 σ^2 σ2已知时,在 u i u_i ui?的正态性假定下:
    z = β 2 ^ ? β 2 S E ( β 2 ^ ) z=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} z=SE(β2?^?)β2?^??β2??~ N ( 0 , 1 ) N(0,1) N(0,1)
    取α=0.05,即1-α=0.95,查正态分布表可知:
    P [ ? 1.96 < z = β 2 ^ ? β 2 S E ( β 2 ^ ) < 1.96 ] P[-1.96<z=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})}<1.96] P[?1.96<z=SE(β2?^?)β2?^??β2??<1.96]=0.95

    P [ β 2 ^ ? 1.96 S E ( β 2 ^ ) < β 2 < β 2 ^ + 1.96 S E ( β 2 ^ ) ] = 0.95 P[\hat{β_2}-1.96SE(\hat{β_2})<β_2<\hat{β_2}+1.96SE(\hat{β_2})]=0.95 P[β2?^??1.96SE(β2?^?)β2?β2?^?+1.96SE(β2?^?)]=0.95
    所以回归系数 β 2 β_2 β2?的95%置信区间为 [ β 2 ^ ? 1.96 S E ( β 2 ^ ) , β 2 ^ + 1.96 S E ( β 2 ^ ) ] [\hat{β_2}-1.96SE(\hat{β_2}),\hat{β_2}+1.96SE(\hat{β_2})] [β2?^??1.96SE(β2?^?),β2?^?+1.96SE(β2?^?)]

  2. 当总体方差 σ 2 σ^2 σ2未知,且样本容量充分大时,可用无偏估计 σ 2 ^ = ∑ e i 2 n ? 2 \hat{σ^2}=\frac{\sum e_i^2}{n-2} σ2^=n?2ei2??去替代 σ 2 σ^2 σ2。此时样本容量充分大,仍可认为 z = β 2 ^ ? β 2 S E ( β 2 ^ ) z=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} z=SE(β2?^?)β2?^??β2??~ N ( 0 , 1 ) N(0,1) N(0,1)
    然后同样利用正态分布确定 β 2 β_2 β2?的置信区间。

  3. 当总体方差 σ 2 σ^2 σ2未知,且样本容量较小时,用无偏估计 σ 2 ^ = ∑ e i 2 n ? 2 \hat{σ^2}=\frac{\sum e_i^2}{n-2} σ2^=n?2ei2??去替代 σ 2 σ^2 σ2,此时有:
    t = β 2 ^ ? β 2 S E ( β 2 ^ ) t=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})} t=SE(β2?^?)β2?^??β2??~ t ( n ? 2 ) t(n-2) t(n?2)
    利用t分布去建立置信区间:
    P [ ? t α / 2 ≤ t = β 2 ^ ? β 2 S E ( β 2 ^ ) ≤ t α / 2 ] = 1 ? α P[-t_{α/2}≤t=\frac{\hat{β_2}-β_2}{SE(\hat{β_2})}≤t_{α/2}]=1-α P[?tα/2?t=SE(β2?^?)β2?^??β2??tα/2?]=1?α
    P [ β 2 ^ ? t α / 2 S E ( β 2 ^ ) < β 2 < β 2 ^ + t α / 2 S E ( β 2 ^ ) ] = 0.95 P[\hat{β_2}-t_{α/2}SE(\hat{β_2})<β_2<\hat{β_2}+t_{α/2}SE(\hat{β_2})]=0.95 P[β2?^??tα/2?SE(β2?^?)β2?β2?^?+tα/2?SE(β2?^?)]=0.95


  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-10-02 15:06:48  更:2021-10-02 15:08:57 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 5:37:02-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码