在統計學 中,一個概率樣本 的置信區間 (英語:confidence interval ,CI ),是對產生這個樣本的總體 的參數分布 (parametric distribution )中的某一個未知母數 值,以區間 形式給出的估計。相對於點估計 (point estimation )用一個 樣本統計量 來估計 參數值,置信區間還蘊含了估計的精確度的信息。在現代機器學習中越來越常用的置信集合 (confidence set )概念是置信區間在多維分析的推廣[ 1] 。
置信區間在頻率學派中間使用,其在貝葉斯統計 中的對應概念是可信區間 (credible interval )。兩者建立在不同的概念基礎上的,貝葉斯統計將分布的位置參數視為隨機變量 ,並對給定觀測到的數據之後未知參數的後驗分布進行描述,故無論對隨機樣本還是已觀測數據,構造出來的可信區間,其可信水平都是 一個合法的概率[ 2] ;而置信區間的置信水平,只在考慮隨機樣本時可以被理解為一個概率。
定義置信區間最清晰的方式是從一個隨機樣本 出發。考慮一個一維隨機變量
X
{\displaystyle {\cal {X}}}
服從分布
F
{\displaystyle {\cal {F}}}
,又假設
θ
{\displaystyle \theta }
是
F
{\displaystyle {\cal {F}}}
的參數之一。假設我們的數據採集計劃將要獨立地抽樣
n
{\displaystyle n}
次,得到一個隨機樣本
{
X
1
,
…
,
X
n
}
{\displaystyle \{X_{1},\ldots ,X_{n}\}}
,注意這裡所有的
X
i
{\displaystyle X_{i}}
都是隨機的,我們是在討論一個尚未被觀測的數據集。如果存在統計量 (統計量定義為樣本
X
=
{
X
1
,
…
,
X
n
}
{\displaystyle X=\{X_{1},\ldots ,X_{n}\}}
的一個函數,且不得依賴於任何未知參數)
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
{\displaystyle u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})}
滿足
u
(
X
1
,
…
,
X
n
)
<
v
(
X
1
,
…
,
X
n
)
{\displaystyle u(X_{1},\ldots ,X_{n})<v(X_{1},\ldots ,X_{n})}
使得:
P
(
θ
∈
(
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
)
)
=
1
−
α
{\displaystyle \mathbb {P} \left(\theta \in \left(u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})\right)\right)=1-\alpha }
則稱
(
u
(
X
1
,
…
,
X
n
)
,
v
(
X
1
,
…
,
X
n
)
)
{\displaystyle \left(u(X_{1},\ldots ,X_{n}),v(X_{1},\ldots ,X_{n})\right)}
為一個用於估計參數
θ
{\displaystyle \theta }
的
1
−
α
{\displaystyle 1-\alpha }
置信區間,其中的,
1
−
α
{\displaystyle 1-\alpha }
稱為置信水平 ,
α
{\displaystyle \alpha }
在假設檢驗 中也稱為顯著性水平 。
接續隨機樣本版本的定義,現在,對於隨機變量
X
{\displaystyle {\cal {X}}}
的一個已經觀測到的樣本
{
x
1
,
…
,
x
n
}
{\displaystyle \{x_{1},\ldots ,x_{n}\}}
,注意這裡用小寫x表記的
x
i
{\displaystyle x_{i}}
都是已經觀測到的數字,沒有隨機性了,定義基於數據的
1
−
α
{\displaystyle 1-\alpha }
置信區間為:
(
u
(
x
1
,
…
,
x
n
)
,
v
(
x
1
,
…
,
x
n
)
)
{\displaystyle \left(u(x_{1},\ldots ,x_{n}),v(x_{1},\ldots ,x_{n})\right)}
注意,置信區間可以是單尾或者雙尾的,單尾的置信區間中設定
u
=
−
∞
{\displaystyle u=-\infty }
或者
v
=
+
∞
{\displaystyle v=+\infty }
,具體前者還是後者取決於所構造的置信區間的方向。
初學者常犯一個概念性錯誤,是將基於觀測到的數據所同樣構造的置信區間的置信水平,誤認為是它包含真實未知參數的真實值的概率。正確的理解是:置信水平只有在描述這個同樣構造置信區間的過程 (或稱方法 )的意義下才能被視為一個概率。一個基於已經觀測到的數據所構造出來的置信區間,其兩個端點已經不再具有隨機性,因此,類似的構造的間隔將會包含真正的值的比例在所有值中,其包含未知參數的真實值的概率是0或者1 ,但我們不能知道 是前者還是後者[ 3] 。
1
−
α
{\displaystyle 1-\alpha }
水平的雙尾 正態置信區間為:
(
x
¯
±
t
n
−
1
;
α
/
2
s
n
)
{\displaystyle \left({\bar {x}}\pm t_{n-1;\alpha /2}{\frac {s}{\sqrt {n}}}\right)}
從常態分佈產生的50個樣本中得出的50個信賴區間
信賴區間及信心水準常被誤解,出版的研究也顯示出既使是專業的科學家也常做出錯誤的詮釋。[ 4] [ 5] [ 6] [ 7] [ 8] [ 9]
以95%的信賴區間來說,建構出一個信賴區間,不代表分佈的參數有95%的機率會落在該信賴區間內(也就是說該區間有95%的機率涵蓋了分佈參數)。 [ 10] 依照嚴格的頻率學派詮釋,一旦信賴區間被建構完全,此區間不是涵蓋了參數就是沒涵蓋參數,已經沒有機率可言。95%機率指的是建構信賴區間步驟的可靠性,不是針對一個特定的區間。[ 11] 內曼 本人(信賴區間的原始提倡者)在他的原始論文提出此點:[ 12] 「在上面的敘述中可以注意到,機率是指統計學家在未來關心的估計問題。事實上,我已多次說明,正確結果的頻率會趨向於α 。考慮到一個樣本已被抽取,[特定端點]也已被計算完成。我們能說在這個特定的例子裡真值[落到端點中]的機率等於α 嗎?答案明顯是否定的。參數是未知的常數,無法做出對其值的機率敘述……」
Deborah Mayo針對此點進一步說道:[ 13] 「無論如何必須強調,在看到[資料的]數值後,Neyman–Pearson理論從不允許做出以下結論,特定產生的信賴區間涵蓋了真值的機率或信心為(1 − α )100%。Seidenfeld的評論似乎源於一種(並非不尋常的)期望,Neyman–Pearson信賴區間能提供他們無法合理提供的,也就是未知參數落入特定區間的機率大小、信心高低或支持程度的測度。隨著Savage (1962)之後,參數落入特定區間的機率可能是指最終精密度的測度。最終精密度的測度令人嚮往而且信賴區間又常被(錯誤地)解釋成可提供此測度,然而此解釋是不被保證的。無可否認的,『信賴』二字助長了此誤解。」
95%信賴區間不代表有95%的樣本資料落在此信賴區間。
信賴區間不是樣本參數的可能值的確定範圍,雖然它常被啟發為可能值的範圍。
從一個實驗中算出的一個95%信賴區間,不代表從不同實驗得到的樣本參數有95%落在該區間中 [ 8]
一般來說,置信區間的構造需要先找到一個樞軸變量 (pivotal quantity ,或稱pivot ),其表達式依賴於樣本以及待估計的未知參數(但不能 依賴於總體的其它未知參數),其分布不依賴於 任何未知參數。
下面以上述例2為例,說明如何利用樞軸變量構造置信區間。對於一個正態分布的隨機樣本
X
1
,
…
,
X
n
{\displaystyle {X_{1},\ldots ,X_{n}}}
,可以證明(此證明對初學者並不容易)如下統計量互相獨立 :
X
¯
=
1
n
∑
i
=
1
n
X
i
{\displaystyle {\bar {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}
和
S
2
=
∑
i
=
1
n
(
X
i
−
X
¯
)
2
n
−
1
{\displaystyle S^{2}={\frac {\sum _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}}{n-1}}}
它們的分布是:
X
¯
−
μ
σ
/
n
∼
N
(
0
,
1
)
{\displaystyle {\frac {{\bar {X}}-\mu }{\sigma /{\sqrt {n}}}}\sim N(0,1)}
和
(
n
−
1
)
S
2
σ
2
∼
χ
n
−
1
2
{\displaystyle (n-1){\frac {S^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}
所以根據t分布 的定義,有
t
=
X
¯
−
μ
S
/
n
∼
t
n
−
1
{\displaystyle t={\frac {{\bar {X}}-\mu }{S/{\sqrt {n}}}}\sim t_{n-1}}
於是反解如下等式左邊括號中的不等式
P
(
−
t
n
−
1
;
α
/
2
<
t
=
X
¯
−
μ
S
n
<
t
n
−
1
;
α
/
2
)
=
1
−
α
{\displaystyle \mathbb {P} \left(-t_{n-1;\alpha /2}<t={\frac {{\bar {X}}-\mu }{S{\sqrt {n}}}}<t_{n-1;\alpha /2}\right)=1-\alpha }
就得到了例2中雙尾置信區間的表達式。
Brittany Terese Fasy; Fabrizio Lecci; Alessandro Rinaldo; Larry Wasserman; Sivaraman Balakrishnan; Aarti Singh. Confidence sets for persistence diagrams. The Annals of Statistics. 2014, 42 (6): 2301–2339.
Box, George EP; Tiao, George C. Bayesian inference in statistical analysis. John Wiley & Sons. 2011.
Hoekstra, R., R. D. Morey, J. N. Rouder, and E-J. Wagenmakers, 2014. Robust misinterpretation of confidence intervals. Psychonomic Bulletin Review, in press. [1] (頁面存檔備份 ,存於網際網路檔案館 )
Greenland, Sander; Senn, Stephen J.; Rothman, Kenneth J.; Carlin, John B.; Poole, Charles; Goodman, Steven N.; Altman, Douglas G. Statistical tests, P values, confidence intervals, and power: a guide to misinterpretations . European Journal of Epidemiology. April 2016, 31 (4): 337–350. ISSN 0393-2990 . PMC 4877414 . PMID 27209009 . doi:10.1007/s10654-016-0149-3 .
羅納德·費雪 (1956) Statistical Methods and Scientific Inference. Oliver and Boyd, Edinburgh. (See p. 32.)
弗羅因德 (1962) Mathematical Statistics Prentice Hall, Englewood Cliffs, NJ. (See pp. 227–228.)
伊安·海金 (1965) Logic of Statistical Inference. Cambridge University Press, Cambridge
齊平 (1962) Introduction to Statistical Inference. D. Van Nostrand, Princeton, NJ.
傑克·基弗 (1977) "Conditional Confidence Statements and Confidence Estimators (with discussion)" Journal of the American Statistical Association, 72, 789–827.
澤西·內曼 (1937) "Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability" Philosophical Transactions of the Royal Society of London A, 236, 333–380. (Seminal work.)
G.K.羅賓遜 (1975) "Some Counterexamples to the Theory of Confidence Intervals." Biometrika, 62, 155–161.