Remove ads
統計學上一種分析數據的方法 来自维基百科,自由的百科全书
回归分析(英语:Regression Analysis)是一种统计学上分析数据的方法,目的在于了解两个或多个变数间是否相关、相关方向与强度,并建立数学模型以便观察特定变数来预测研究者感兴趣的变数。更具体的来说,回归分析可以帮助人们了解在只有一个自变量变化时因变量的变化量。一般来说,通过回归分析我们可以由给出的自变量估计因变量的条件期望。
回归分析是建立被解释变数(或称应变数、依变数、反应变数)与解释变数(或称自变数、独立变数)之间关系的模型。简单线性回归使用一个自变量,复回归使用超过一个自变量()。
回归的最早形式是最小二乘法,由1805年的勒让德(Legendre)[1],和1809年的高斯(Gauss)出版[2]。勒让德和高斯都将该方法应用于从天文观测中确定关于太阳的物体的轨道(主要是彗星,但后来是新发现的小行星)的问题。 高斯在1821年发表了最小二乘理论的进一步发展[3],包括高斯-马尔可夫定理的一个版本。
“回归”一词最早由法兰西斯·高尔顿(Francis Galton)所使用[4][5]。他曾对亲子间的身高做研究,发现父母的身高虽然会遗传给子女,但子女的身高却有逐渐“回归到中等(即人的平均值)”的现象。不过现在的回归已经和当初的意义不尽相同。
在1950年代和60年代,经济学家使用机械电子桌面计算器来计算回归。在1970年之前,这种计算方法有时需要长达24小时才能得出结果[6]。
回归模型主要包括以下变量:
回归模型将和一个关于和的函数关联起来。
在不同的应用领域有各自不同的术语代替这里的“自变量”和“因变量”。
这个估计值通常写作:。
在进行回归分析时,函数的形式必须预先指定。有时函数的形式是在对和关系的已有知识上建立的,而不是在数据的基础之上。如果没有这种已有知识,那么就要选择一个灵活和便于回归的的形式。
假设现在未知向量的维数为k。为了进行回归分析,必须要先有关于的信息:
在最后一种情况下,回归分析提供了一种完成以下任务的工具: ⒈找出一个未知量的解使因变量的预测值和实际值差别最小(又称最小二乘法)。
⒉在特定统计假设下,回归分析使用数据中的多余信息给出关于因变量和未知量之间的关系。
简单线性回归(英语:simple linear regression)
复回归分析(英语:multiple regression analysis)是简单线性回归的一种延伸应用,用以了解一个依变项与两组以上自变项的函数关系。
对数线性回归(英语:Log-linear model),是将解释变项(实验设计中的自变项)和反应变项(实验设计中的依变项)都取对数值之后再进行线性回归,所以依据解释变项的数量,可能是对数简单线性回归,也可能是对数复回归。
对数几率回归(英语:Logistic Regression)
偏回归(英语:Partial Regression)
用于研究单个自变数对因变数的影响,同时控制其他自变数的影响。它通常应用在多元回归模型中,以解决自变数之间存在共线性时的问题,或者用于探索自变数之间的相互作用。
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.