在統計學中, 完備性,又稱完全性是統計量的一個性質。 從本質上講,它確保不同的參數值對應的分佈是不同的。一個具有完備性的統計量稱為完全統計量。 定義 考慮一個隨機變量 X {\displaystyle X} ,其概率分佈 P θ {\displaystyle P_{\theta }} 以 θ {\displaystyle \theta } 為參數。稱一個統計量 s {\displaystyle s} 是完全的,若對任意可測函數 g {\displaystyle g} ,[1] 如果對所有 θ {\displaystyle \theta } 都有 E ( g ( s ( X ) ) ) = 0 {\displaystyle E(g(s(X)))=0} ,則 P θ ( g ( s ( X ) ) = 0 ) = 1 {\displaystyle P_{\theta }(g(s(X))=0)=1} 對所有 θ {\displaystyle \theta } 都成立。 若對上述函數 g {\displaystyle g} 加上有界的條件,則稱該統計量為有界完全的。 例子 若 X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} 是來自參數為 p {\displaystyle p} 的伯努利分佈的獨立隨機樣本,其中 p ∈ ( 0 , 1 ) {\displaystyle p\in (0,1)} 。統計量 T = ∑ i = 1 b X i {\displaystyle T=\sum _{i=1}^{b}X_{i}} 是 p {\displaystyle p} 的完全統計量。注意到 T {\displaystyle T} 服從參數為 n {\displaystyle n} 和 p {\displaystyle p} 的二項分佈。若有某個 g {\displaystyle g} ,使得 E p ( g ( T ) ) = 0 {\displaystyle E_{p}(g(T))=0} 對 p ∈ ( 0 , 1 ) {\displaystyle p\in (0,1)} 都成立,則 0 = ∑ i = 0 n ( n i ) p i ( 1 − p ) n − i g ( i ) = ( 1 − p ) n ∑ i = 0 n g ( i ) ( n i ) ( p 1 − p ) i , p ∈ ( 0 , 1 ) . {\displaystyle 0=\sum _{i=0}^{n}{\binom {n}{i}}p^{i}(1-p)^{n-i}g(i)=(1-p)^{n}\sum _{i=0}^{n}g(i){\binom {n}{i}}\left({\frac {p}{1-p}}\right)^{i},p\in (0,1).} 令 r = p / ( 1 − p ) ∈ R {\displaystyle r=p/(1-p)\in \mathbb {R} } ,則多項式 ∑ i = 0 n g ( i ) ( n i ) r i {\displaystyle \sum _{i=0}^{n}g(i){\binom {n}{i}}r^{i}} 在 R {\displaystyle \mathbb {R} } 上恆為0。可知其每一項係數都為0,進而得到 g = 0 {\displaystyle g=0} 。由定義, T = ∑ i = 1 b X i {\displaystyle T=\sum _{i=1}^{b}X_{i}} 是 p {\displaystyle p} 的完全統計量。 完備性的重要性 巴蘇定理 主條目:巴蘇定理 有界完備性出現在巴蘇定理中,[2] 它指出任何有界完全且充分的統計量與任何輔助統計量獨立。 Bahadur定理 有界完備性也出現在Bahadur定理中。 定理指出,當至少存在一個最小充分統計量時,如果一個統計量是充分的並且有界完全的,則它是一個最小充分統計量。 註釋Loading content...參考文獻Loading content...Loading related searches...Wikiwand - on Seamless Wikipedia browsing. On steroids.