在貝葉斯統計學中,「最大後驗概率估計」是後驗概率分佈的眾數。利用最大後驗概率估計可以獲得對實驗數據中無法直接觀察到的量的點估計。它與最大似然估計中的經典方法有密切關係,但是它使用了一個增廣的最佳化目標,進一步考慮了被估計量的先驗概率分佈。所以最大後驗概率估計可以看作是規則化的最大似然估計。
假設我們需要根據觀察數據
估計沒有觀察到的總體參數
,讓
作為
的採樣分佈,這樣
就是總體參數為
時
的概率。函數

即為似然函數,其估計

就是
的最大似然估計。
假設
存在一個先驗分布
,這就允許我們將
作為 貝氏統計中的隨機變量,這樣
的後驗分布就是:

其中
是
的domain,這是貝氏定理的直接應用。
最後驗估計方法於是估計
為這個隨機變量的後驗分布的眾數:

後驗分布的分母與
無關,所以在最佳化過程中不起作用。注意當先驗
是常數函數時最大後驗估計與最大似然估計重合。
最大後驗估計可以用以下幾種方法計算:
- 解析方法,當後驗分布的模能夠用 解析解 方式表示的時候用這種方法。當使用共軛先驗 的時候就是這種情況。
- 通過如共扼積分法或者牛頓法這樣的數值最佳化方法進行,這通常需要一階或者導數,導數需要通過解析或者數值方法得到。
- 通過 期望值最大化算法 的修改實現,這種方法不需要後驗密度的導數。
儘管最大後驗估計與貝氏統計共享先驗分布的使用,通常並不認為它是一種貝葉斯方法,這是因為最大後驗估計是點估計,然而貝葉斯方法的特點是使用這些分佈來總結數據、得到推論。貝葉斯方法試圖算出後驗均值或者中值以及posterior interval,而不是後驗模。尤其是當後驗分布沒有一個簡單的解析形式的時候更是這樣:在這種情況下,後驗分布可以使用 Markov chain Monte Carlo 技術來模擬,但是找到它的模的最佳化是很困難或者是不可能的。