在統計學 中,一個概率樣本 的置信區間 (英語:confidence interval ,CI ),是對產生這個樣本的總體 的參數分佈 (parametric distribution )中的某一個未知參數 值,以區間 形式給出的估計。相對於點估計 (point estimation )用一個 樣本統計量 來估計 參數值,置信區間還蘊含了估計的精確度的資訊。在現代機器學習中越來越常用的信賴集合 (confidence set )概念是置信區間在多維分析的推廣[ 1] 。
置信區間在頻率學派中間使用,其在貝氏統計 中的對應概念是可信區間 (credible interval )。兩者建立在不同的概念基礎上的,貝氏統計將分佈的位置參數視為隨機變量 ,並對給定觀測到的數據之後未知參數的後驗分布進行描述,故無論對隨機樣本還是已觀測數據,構造出來的可信區間,其可信水準都是 一個合法的概率[ 2] ;而置信區間的置信水平,只在考慮隨機樣本時可以被理解為一個概率。
定義置信區間最清晰的方式是從一個隨機樣本 出發。考慮一個一維隨機變量
X
{\displaystyle {\cal {X}}}
服從分佈
F
{\displaystyle {\cal {F}}}
,又假設
θ
{\displaystyle \theta }
是
F
{\displaystyle {\cal {F}}}
的參數之一。假設我們的數據採集計劃將要獨立地抽樣
n
{\displaystyle n}
次,得到一個隨機樣本
{
X
1
,
…
,
X
n
}
{\displaystyle \{X_{1},\ldots ,X_{n}\}}
,注意這裏所有的
X
i
{\displaystyle X_{i}}
都是隨機的,我們是在討論一個尚未被觀測的數據集。如果存在統計量 (統計量定義為樣本
X
=
{
X
1
,
…
,
X
n
}
{\displaystyle X=\{X_{1},\ldots ,X_{n}\}}
的一個函數,且不得依賴於任何未知參數)
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
{\displaystyle u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})}
滿足
u
(
X
1
,
…
,
X
n
)
<
v
(
X
1
,
…
,
X
n
)
{\displaystyle u(X_{1},\ldots ,X_{n})<v(X_{1},\ldots ,X_{n})}
使得:
P
(
θ
∈
(
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
)
)
=
1
−
α
{\displaystyle \mathbb {P} \left(\theta \in \left(u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})\right)\right)=1-\alpha }
則稱
(
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
)
{\displaystyle \left(u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})\right)}
為一個用於估計參數
θ
{\displaystyle \theta }
的
1
−
α
{\displaystyle 1-\alpha }
置信區間,其中的,
1
−
α
{\displaystyle 1-\alpha }
稱為置信水平 ,
α
{\displaystyle \alpha }
在假設檢定 中也稱為顯著水平 。
接續隨機樣本版本的定義,現在,對於隨機變量
X
{\displaystyle {\cal {X}}}
的一個已經觀測到的樣本
{
x
1
,
…
,
x
n
}
{\displaystyle \{x_{1},\ldots ,x_{n}\}}
,注意這裏用小寫x表記的
x
i
{\displaystyle x_{i}}
都是已經觀測到的數字,沒有隨機性了,定義基於數據的
1
−
α
{\displaystyle 1-\alpha }
置信區間為:
(
u
(
x
1
,
…
,
x
n
)
,
v
(
x
1
,
…
,
x
n
)
)
{\displaystyle \left(u(x_{1},\ldots ,x_{n}),v(x_{1},\ldots ,x_{n})\right)}
注意,置信區間可以是單尾或者雙尾的,單尾的置信區間中設定
u
=
−
∞
{\displaystyle u=-\infty }
或者
v
=
+
∞
{\displaystyle v=+\infty }
,具體前者還是後者取決於所構造的置信區間的方向。
初學者常犯一個概念性錯誤,是將基於觀測到的數據所同樣構造的置信區間的置信水平,誤認為是它包含真實未知參數的真實值的概率。正確的理解是:置信水平只有在描述這個同樣構造置信區間的過程 (或稱方法 )的意義下才能被視為一個概率。一個基於已經觀測到的數據所構造出來的置信區間,其兩個端點已經不再具有隨機性,因此,類似的構造的間隔將會包含真正的值的比例在所有值中,其包含未知參數的真實值的概率是0或者1 ,但我們不能知道 是前者還是後者[ 3] 。
1
−
α
{\displaystyle 1-\alpha }
水準的雙尾 正態置信區間為:
(
x
¯
±
t
n
−
1
;
α
/
2
s
n
)
{\displaystyle \left({\bar {x}}\pm t_{n-1;\alpha /2}{\frac {s}{\sqrt {n}}}\right)}
從正態分佈產生的50個樣本中得出的50個置信區間
置信區間及置信水平常被誤解,出版的研究也顯示出既使是專業的科學家也常做出錯誤的詮釋。[ 4] [ 5] [ 6] [ 7] [ 8] [ 9]
以95%的置信區間來說,建構出一個置信區間,不代表分佈的參數有95%的概率會落在該置信區間內(也就是說該區間有95%的概率涵蓋了分佈參數)。 [ 10] 依照嚴格的頻率學派詮釋,一旦置信區間被建構完全,此區間不是涵蓋了參數就是沒涵蓋參數,已經沒有概率可言。95%概率指的是建構置信區間步驟的可靠性,不是針對一個特定的區間。[ 11] 內曼 本人(置信區間的原始提倡者)在他的原始論文提出此點:[ 12] 「在上面的敘述中可以注意到,概率是指統計學家在未來關心的估計問題。事實上,我已多次說明,正確結果的頻率會趨向於α 。考慮到一個樣本已被抽取,[特定端點]也已被計算完成。我們能說在這個特定的例子裏真值[落到端點中]的概率等於α 嗎?答案明顯是否定的。參數是未知的常數,無法做出對其值的概率敘述……」
Deborah Mayo針對此點進一步說道:[ 13] 「無論如何必須強調,在看到[資料的]數值後,Neyman–Pearson理論從不允許做出以下結論,特定產生的置信區間涵蓋了真值的概率或信心為(1 − α )100%。Seidenfeld的評論似乎源於一種(並非不尋常的)期望值,Neyman–Pearson置信區間能提供他們無法合理提供的,也就是未知參數落入特定區間的概率大小、信心高低或支持程度的測度。隨着Savage (1962)之後,參數落入特定區間的概率可能是指最終精密度的測度。最終精密度的測度令人嚮往而且置信區間又常被(錯誤地)解釋成可提供此測度,然而此解釋是不被保證的。無可否認的,『信賴』二字助長了此誤解。」
95%置信區間不代表有95%的樣本資料落在此置信區間。
置信區間不是樣本參數的可能值的確定範圍,雖然它常被啟發為可能值的範圍。
從一個實驗中算出的一個95%置信區間,不代表從不同實驗得到的樣本參數有95%落在該區間中 [ 8]
一般來說,置信區間的構造需要先找到一個樞軸變量 (pivotal quantity ,或稱pivot ),其表達式依賴於樣本以及待估計的未知參數(但不能 依賴於總體的其它未知參數),其分佈不依賴於 任何未知參數。
下面以上述例2為例,說明如何利用樞軸變量構造置信區間。對於一個正態分佈的隨機樣本
X
1
,
…
,
X
n
{\displaystyle {X_{1},\ldots ,X_{n}}}
,可以證明(此證明對初學者並不容易)如下統計量互相獨立 :
X
¯
=
1
n
∑
i
=
1
n
X
i
{\displaystyle {\bar {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}
和
S
2
=
∑
i
=
1
n
(
X
i
−
X
¯
)
2
n
−
1
{\displaystyle S^{2}={\frac {\sum _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}}{n-1}}}
它們的分佈是:
X
¯
−
μ
σ
/
n
∼
N
(
0
,
1
)
{\displaystyle {\frac {{\bar {X}}-\mu }{\sigma /{\sqrt {n}}}}\sim N(0,1)}
和
(
n
−
1
)
S
2
σ
2
∼
χ
n
−
1
2
{\displaystyle (n-1){\frac {S^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}
所以根據t分佈 的定義,有
t
=
X
¯
−
μ
S
/
n
∼
t
n
−
1
{\displaystyle t={\frac {{\bar {X}}-\mu }{S/{\sqrt {n}}}}\sim t_{n-1}}
於是反解如下等式左邊括號中的不等式
P
(
−
t
n
−
1
;
α
/
2
<
t
=
X
¯
−
μ
S
n
<
t
n
−
1
;
α
/
2
)
=
1
−
α
{\displaystyle \mathbb {P} \left(-t_{n-1;\alpha /2}<t={\frac {{\bar {X}}-\mu }{S{\sqrt {n}}}}<t_{n-1;\alpha /2}\right)=1-\alpha }
就得到了例2中雙尾置信區間的表達式。
Brittany Terese Fasy; Fabrizio Lecci; Alessandro Rinaldo; Larry Wasserman; Sivaraman Balakrishnan; Aarti Singh. Confidence sets for persistence diagrams. The Annals of Statistics. 2014, 42 (6): 2301–2339.
Box, George EP; Tiao, George C. Bayesian inference in statistical analysis. John Wiley & Sons. 2011.
Hoekstra, R., R. D. Morey, J. N. Rouder, and E-J. Wagenmakers, 2014. Robust misinterpretation of confidence intervals. Psychonomic Bulletin Review, in press. [1] (頁面存檔備份 ,存於互聯網檔案館 )
Greenland, Sander; Senn, Stephen J.; Rothman, Kenneth J.; Carlin, John B.; Poole, Charles; Goodman, Steven N.; Altman, Douglas G. Statistical tests, P values, confidence intervals, and power: a guide to misinterpretations . European Journal of Epidemiology. April 2016, 31 (4): 337–350. ISSN 0393-2990 . PMC 4877414 . PMID 27209009 . doi:10.1007/s10654-016-0149-3 .
羅納德·費雪 (1956) Statistical Methods and Scientific Inference. Oliver and Boyd, Edinburgh. (See p. 32.)
弗羅因德 (1962) Mathematical Statistics Prentice Hall, Englewood Cliffs, NJ. (See pp. 227–228.)
伊安·海金 (1965) Logic of Statistical Inference. Cambridge University Press, Cambridge
齊平 (1962) Introduction to Statistical Inference. D. Van Nostrand, Princeton, NJ.
傑克·基弗 (1977) "Conditional Confidence Statements and Confidence Estimators (with discussion)" Journal of the American Statistical Association, 72, 789–827.
澤西·內曼 (1937) "Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability" Philosophical Transactions of the Royal Society of London A, 236, 333–380. (Seminal work.)
G.K.羅賓遜 (1975) "Some Counterexamples to the Theory of Confidence Intervals." Biometrika, 62, 155–161.