Loading AI tools
来自维基百科,自由的百科全书
估計理論是統計學和信號處理中的一個分支,主要是通過測量或經驗數據來估計概率分布參數的數值。這些參數描述了實質情況或實際對象,它們能夠回答估計函數提出的問題。
此條目需要精通或熟悉相關主題的編者參與及協助編輯。 (2018年7月12日) |
此條目不符合維基百科的品質標準,需要完全重寫。 |
例如,估計投票人總體中,給特定候選人投票的人的比例。這個比例是一個不可觀測的參數,因為投票人總體很大;估計值建立在投票者的一個小的隨機採樣上。
又如,雷達的目的是物體(飛機、船等)的定位。這種定位是通過分析收到的回聲(回波)來實現的,定位提出的問題是「飛機在哪裡?」為了回答這個問題,必須估計飛機到雷達之間的距離。如果雷達的絕對位置是已知的,那麼飛機的絕對位置也是可以確定的。
有非常多的領域使用參數估計理論。這些領域包括(當然不局限於以下列出的領域):
估計理論的全部目的都是獲取一個估計函數,最好是一個可以實現的估計函數。估計函數輸入測量數據,輸出相應參數的估計。
我們通常希望估計函數能最優,一個最優的估計意味著所有的信息都被提取出來了;如果還有信息沒有提取出來,那就意味著它不是最優的。
一般來說,求估計函數需要三步:
當實現一個估計器之後,實際的數據有可能證明推導出估計器的模型是不正確的,這樣的話就需要重複上面的過程重新尋找估計器。不能實現的估計器需要拋棄,然後開始一個新的過程。總的來說,估計器根據實際測量的數據預測物理模型的參數。
對於給定模型,估計器需要若干統計 "成分"才能實現。第一,統計樣本從長度為 N 的隨機向量(Random Variable,RV)中採樣獲得,觀測值構成向量:
第二,有 M 個參數:
它們的值需要被估計。第三,用於生成連續數據的概率密度函數(Probability density function,PDF)或離散數據的概率質量函數(Probability mass function,PMF)以參數值為條件(這些概率函數潛在存在),即條件概率為:
參數自身可能也存在概率分布(如貝葉斯統計),此時就需要定義貝葉斯概率:
模型形成後,目標是估計參數,估計的參數通常表示為 ,其中 表示估計值。
常用的估計器包括最小均方誤差(Minimum mean squared error,MMSE)估計器,它利用了估計參數和參數實際值之間的誤差:
作為優化的基礎。該誤差項平方的期望對MMSE估計器來說是最小的。
以下是一些相關的估計函數以及相關的主題
考慮由個獨立採樣點構成的離散信號,它由常數和零均值、方差為的加性高斯白噪聲(即)構成。方差已知,未知參數為。
信號的模型為:
參數的兩個可能的估計器是:
和
兩個估計器的均值沒有差異,然而它們的方差不同:
和
當時,,所以似乎採樣平均是一個更好的估計器。
使用最大似然估計繼續上面的例子,噪聲在採樣點上的概率密度函數(pdf)為:
此時的概率為(服從分布):
由於相互獨立,的概率為:
對上式取自然對數:
於是最大似然估計器為:
計算對數-最大似然函數的一階導數:
令其為0:
得到最大似然估計器:
它是一個簡單的採樣平均。從這個例子中可以發現,被獨立同分布的加性高斯白噪聲污染的、由未知常數構成的點信號的最大似然估計其就是採樣平均。
為了找到採樣平均估計器的Cramér-Rao下限(CRLB),需要找到Fisher information數
從上面得到
取二階導數
發現負的期望值是無關緊要的(trivial),因為它現在是一個確定的常數
最後,將Fisher information代入
得到
將這個值與前面確定的採樣平均的變化比較顯示對於所有的和來說採樣平均都是等於Cramér-Rao下限。
採樣平均除了是最大似然估計器之外還是最小變化無偏估計器(MVUE)。
這個直流增益 + WGN的例子是Kay的統計信號處理基礎中一個例子的再現。
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.