线性回归

一種迴歸分析 来自维基百科,自由的百科全书

線性回歸

统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归multivariable linear regression)。[1]

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。[2]最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。

线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。[3]这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。

线性回归有很多实际用途。分为以下两大类:

  1. 如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。
  2. 给定一个变量y和一些变量,...,,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的,并识别出哪些的子集包含了关于y的冗余信息。

线性回归模型经常用最小二乘逼近来拟合,但他们也可能用别的方法来拟合,比如用最小化“拟合缺陷”在一些其他规范里(比如最小绝对误差回归),或者在桥回归中最小化最小二乘损失函数的惩罚。相反,最小二乘逼近可以用来拟合那些非线性的模型。因此,尽管“最小二乘法”和“线性模型”是紧密相连的,但他们是不能划等号的。

线性回归的“回归”指的是回归到平均值英语regression toward the mean


简介

Thumb
带有一个自变量的线性回归

理论模型

给一个随机样本,一个线性回归模型假设回归子和回归量之间的关系是除了X的影响以外,还有其他的变量存在。我们加入一个误差项(也是一个随机变量)来捕获除了之外任何对的影响。所以一个多变量线性回归模型表示为以下的形式:

其他的模型可能被认定成非线性模型。一个线性回归模型不需要是自变量的线性函数。线性在这里表示的条件均值在参数里是线性的。例如:模型里是线性的,但在里是非线性的,它是的非线性函数。

数据和估计

区分随机变量和这些变量的观测值是很重要的。通常来说,观测值或数据(以小写字母表记)包括了n个值 .

我们有个参数需要决定,为了估计这些参数,使用矩阵表记是很有用的。

其中Y是一个包括了观测值的列向量,包括了未观测的随机成分以及回归量的观测值矩阵

X通常包括一个常数项。

如果X列之间存在线性相关,那么参数向量就不能以最小二乘法估计除非被限制,比如要求它的一些元素之和为0。

古典假设

  • 样本是在总体之中随机抽取出来的。
  • 因变量Y在实直线上是连续的
  • 残差项是独立相同分布的(iid),也就是说,残差是独立随机的,且服从高斯分布

这些假设意味着残差项不依赖自变量的值,所以和自变量X(预测变量)之间是相互独立的。

在这些假设下,建立一个显式线性回归作为条件预期模型的简单线性回归,可以表示为:

最小二乘法分析

最小二乘法估计

回归分析的最初目的是估计模型的参数以便达到对数据的最佳拟合。在决定一个最佳拟合的不同标准之中,最小二乘法是非常优越的。这种估计可以表示为:

回归推论

对于每一个,我们用代表误差项的方差。一个无偏误的估计是:

其中是误差平方和(残差平方和)。估计值和实际值之间的关系是:

其中服从卡方分布,自由度是

对普通方程的解可以写为:

这表示估计项是因变量的线性组合。进一步地说,如果所观察的误差服从正态分布。参数的估计值将服从联合正态分布。在当前的假设之下,估计的参数向量是精确分布的。

其中表示多变量正态分布

参数估计值的标准差是:

参数置信区间可以用以下式子来计算:

误差项可以表示为:

单变量线性回归

单变量线性回归,又称简单线性回归(simple linear regression, SLR),是最简单但用途很广的回归模型。其回归式为:

为了从一组样本(其中)之中估计最合适(误差最小)的,通常采用最小二乘法,其计算目标为最小化残差平方和:

使用微分法求极值:将上式分别对做一阶偏微分,并令其等于0:

此二元一次线性方程组可用克莱姆法则求解,得解

协方差矩阵是:

平均响应置信区间为:

预报响应置信区间为:

方差分析

方差分析(ANOVA)中,总平方和分解为两个或更多部分。

总平方和SST (sum of squares for total) 是:

 ,其中: 

同等地:

回归平方和SSReg (sum of squares for regression。也可写做模型平方和,SSM,sum of squares for model) 是:

残差平方和SSE (sum of squares for error) 是:

总平方和SST又可写做SSReg和SSE的和:

回归系数R2是:

其他方法

广义最小二乘法

广义最小二乘法可以用在当观测误差具有异方差或者自相关的情况下。

总体最小二乘法

总体最小二乘法用于当自变量有误时。

广义线性模式

广义线性模式应用在当误差分布函数不是正态分布时。比如指数分布伽玛分布逆高斯分布泊松分布二项式分布等。

稳健回归

将平均绝对误差最小化,不同于在线性回归中是将均方误差最小化。

线性回归的应用

趋势线

一条趋势线代表着时间序列数据的长期走势。它告诉我们一组特定数据(如GDP、石油价格和股票价格)是否在一段时期内增长或下降。虽然我们可以用肉眼观察数据点在坐标系的位置大体画出趋势线,更恰当的方法是利用线性回归计算出趋势线的位置和斜率。

流行病学

有关吸烟死亡率发病率影响的早期证据来自采用了回归分析的观察性研究。为了在分析观测数据时减少伪相关,除最感兴趣的变量之外,通常研究人员还会在他们的回归模型里包括一些额外变量。例如,假设有一个回归模型,在这个回归模型中吸烟行为是我们最感兴趣的独立变量,其相关变量是经数年观察得到的吸烟者寿命。研究人员可能将社会经济地位当成一个额外的独立变量,已确保任何经观察所得的吸烟对寿命的影响不是由于教育或收入差异引起的。然而,我们不可能把所有可能混淆结果的变量都加入到实证分析中。例如,某种不存在的基因可能会增加人死亡的几率,还会让人的吸烟量增加。因此,比起采用观察数据的回归分析得出的结论,随机对照试验常能产生更令人信服的因果关系证据。当可控实验不可行时,回归分析的衍生,如工具变量回归,可尝试用来估计观测数据的因果关系。

金融

资本资产定价模型利用线性回归以及Beta系数的概念分析和计算投资的系统风险。这是从联系投资回报和所有风险性资产回报的模型Beta系数直接得出的。

经济学

线性回归是经济学的主要实证工具。例如,它是用来预测消费支出,[4]固定投资支出,存货投资,一国出口产品的购买,[5]进口支出,[5]要求持有流动性资产,[6]劳动力需求、[7]劳动力供给。[7]

参考文献

延伸阅读

参见

外部链接

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.