如何对回归方程进行统计(显著性)检验?
1 对回归系数的检验
对于回归系数一般采用 t 检验,即假设系数 β 等于0。
2 对回归方程方差的检验
方差一般采用F检验,其将平方和公式进行分解,得到SSR和SSE:
总平方和反映因变量y的波动程度或称不确定性,其可以分解为回归平方SSR和和残差平方和SSE,其中SSR是由回归方程确定,是由自变量x的波动引起的,SSE是不能由自变量解释的波动,是由x之外的未加控制的因素引起的。
因此,SST中,能够由自变量解释的部分为SSR,不能由自变量解释的部分为SSE。SSR越大,回归效果越好,因此构建的F检验统计量为:
3 对回归方程线性关系的检验
因为变量y和变量x之间存在线性关系,所以可以用相关系数来检验回归方程的显著性。
相关系数的直观意义如下:
相关系数的缺点:其接近1的程度与数据组数n有关。当n很小时,其绝对值容易接近1;n较大时,绝对值容易偏小。当n=2时,r的绝对值为1。因此在样本量n较小时,不能仅凭相关系数较大就说明x和y有密切的线性关系。
除了查表,也可以对相关系数进行t检验:
注意,相关系数的t检验,只是表示相关系数显著不为0,不能表示相关程度的强弱。
r一般表示样本相关系数,总体样本相关系数一般用ρ表示:
4 t检验、F检验、r显著性检验的关系
对于一元线性回归,三者一致;对于多元线性回归,三者不一致。
在多元回归中,F检验显著,说明y对所有自变量的整体的线性回归效果是显著的,但不等于y对每个自变量x的回归效果都显著。反之,某个或几个x的系数不显著,回归方程的F检验仍有可能是显著的。