了解简单的线性回归以及它的工作原理

分析定量数据的基本统计方法

礼貌Colin Broug,摄影师。 ©2010年6月10日Stock.xchng

线性回归模型用于显示或预测两个变量或因素之间的关系。 被预测的因素(方程解决的因素)被称为 因变量。 用于预测因变量值的因素称为自变量。

好的数据并不总是告诉整个故事。 回归分析通常用于研究,因为它确定变量之间存在相关性。

相关与因果关系并不相同 。 即使是适合数据点的简单线性回归中的一条线也不能说明因果关系。

在简单的线性回归中,每个观察值都由两个值组成。 一个值是因变量,一个值是自变量。

简单线性回归模型

简单的线性回归模型如下所示: y =( β0 + β1 + Ε

通过数学约定,简单线性回归分析中涉及的两个因素被指定为xy

描述y如何与x相关的等式称为回归模型 。 线性回归模型还包含一个由Ε或希腊字母ε表示的误差项。 误差项用于解释yx之间的线性关系无法解释的y的变化性。

还有代表正在研究的人群的参数。 这些由(β0 + β1 x )表示的模型参数

简单线性回归模型

简单线性回归方程如下所示:E( y )=( β0 + β1 x )。

简单的线性回归方程被绘制成一条直线。

β0是回归线的y截距。

β1是斜率。

Εy )是给定值xy的平均值或期望值。

回归线可以显示正线性关系,负线性关系或无关系。 如果简单线性回归中的图线是平坦的(非斜率),则两个变量之间不存在关系。 如果回归线在曲线的y截距(轴)处与线的下端向上倾斜,并且线的上端向上延伸到图场中,远离x截距(轴),则存在正线性关系。 如果回归线在曲线的y截距(轴)处与线的上端向下倾斜,并且向下延伸到图场中的线的下端向x截距(轴)存在负线性关系。

估计的线性回归方程

如果总体参数是已知的,则可以使用简单线性回归方程(如下所示)来计算已知值xy的平均值。

E( y )=( β0 + β1 x )。

然而,在实践中,参数值是未知的,所以它们必须通过使用来自人群样本数据来估计。 使用样本统计来估计总体参数样本统计量由b 0 + b 1表示。当样本统计量代替总体参数时,估计的回归方程就形成了。

估计的回归方程如下所示。

ŷ )=( β0 + β1 x

ŷ )发音为帽子

估计的简单回归方程的图形称为估计回归线。

b 0是y截距。

b 1是斜率。

ŷ )是给定值xy的估计值。

重要提示:回归分析不用于解释变量之间的因果关系 。 然而,回归分析可以指示变量如何相关或者变量之间的关联程度

在这样做的时候,回归分析倾向于建立显着的关系,值得知识型研究人员仔细研究

也被称为:双变量回归,回归分析

示例: 最小二乘法使用样本数据查找估计回归方程的值的统计过程。 最小二乘法是由Carl Friedrich Gauss提出的,他出生于1777年,于1855年去世。最小二乘法仍被广泛使用。

资料来源:

Anderson,DR,Sweeney,DJ和Williams,TA(2003)。 商业和经济统计学基础(第三版)梅森,俄亥俄州:西南部,汤普森学习。

______。 (2010年)。 解释:回归分析。 MIT新闻。

McIntyre,L。(1994)。 使用卷烟数据进行多重回归介绍。 统计教育杂志,2 (1)。

Mendenhall,W.和Sincich,T。(1992)。 工程与科学统计(第三版),纽约州纽约市:Dellen Publishing Co.

Panchenko,D。18.443应用统计,2006年秋季,第14节,简单线性回归。 (麻省理工学院:麻省理工学院开放式课件)