回归分析的概念
回归分析,就是根据相关关系的具体形态,选择一个合适的数学模型,来近似地表达变量间的平均变化关系。
进行回归分析时,首先需要确定因变量和自变量。回归分析中,被预测或被解释的变量称为因变量,一般用Y表示;用来预测或解释因变量的变量称为自变量,一般用X表示
一元线性回归模型
1.一元线性回归模型
回归模型:描述因变量如何依赖自变量和误差项的方程
一元线性回归是描述两个变量之间相关关系的最简单的回归模型。只涉及一个自变量的回归问题。
y = b0 + b1 x + e
2.最小二乘估计
一元线性回归中估计的回归方程为:
提示:教材P181倒数第5行公式有误,改成“-0.79”。
3.回归模型的拟合效果分析
决定系数R2反映回归直线的拟合程度
R2取值范围在 [ 0 , 1 ] 之间。大体上说明了回归模型所能解释的因变量变化占因变量总变化的比例。决定系数越高,模型的拟合效果就越好,即模型解释因变量的能力越强。
R2 =1 ,说明回归直线可以解释因变量的所有变化;
R2 =0 ,说明回归直线无法解释因变量的变化,因变量的变化与自变量无关;
R2 →1,说明回归方程拟合得越好;
R2→0,说明回归方程拟合得越差。