最大期望演算法Expectation-maximization algorithm,又譯期望最大化算法)在統計中被用於尋找,依賴於不可觀察的隱性變量的概率模型中,參數的最大似然估計。

統計計算中,最大期望(EM)算法是在概率模型中尋找參數最大似然估計或者最大後驗估計算法,其中概率模型依賴於無法觀測的隱變量。最大期望算法經常用在機器學習計算機視覺數據聚類(Data Clustering)領域。最大期望算法經過兩個步驟交替進行計算,第一步是計算期望(E),利用對隱藏變量的現有估計值,計算其最大似然估計值;第二步是最大化(M),最大化在E步上求得的最大似然值來計算參數的值。M步上找到的參數估計值被用於下一個E步計算中,這個過程不斷交替進行。

歷史

最大期望值算法由亞瑟·P·丹普斯特英語Arthur P. Dempster南·萊爾德英語Nan Laird唐納德·魯賓英語Donald Rubin在他們1977年發表的經典論文中提出。他們指出此方法之前其實已經被很多作者「在他們特定的研究領域中多次提出過」。

介紹

EM算法用於在方程不能直接求解的情況下尋找統計模型的(局部)最大似然參數。這些模型中較為典型的是含有潛變量,未知參數並且已知觀測數據的模型。也就是說,要麼數據中存在缺失的值,要麼模型可以通過假設存在更多未觀測到的數據點來更簡單地表示。以混合模型(Mixture Model)為例,通過假設每個觀察到的數據點都有一個對應的未觀察到的數據點,也可以說是潛在變量,來指定每個數據點所屬的混合部分,這樣就可以更簡單地描述混合模型。

EM簡單教程

EM是一個在已知部分相關變量的情況下,估計未知變量的迭代技術。EM的算法流程如下:

  1. 初始化分佈參數
  2. 重複直到收斂:
    1. E步驟:根據參數的假設值,給出未知變量的期望估計,應用於缺失值。
    2. M步驟:根據未知變量的估計值,給出當前的參數的極大似然估計。

最大期望過程說明

我們用表示能夠觀察到的不完整的變量值,用表示無法觀察到的變量值,這樣一起組成了完整的數據。可能是實際測量丟失的數據,也可能是能夠簡化問題的隱藏變量,如果它的值能夠知道的話。例如,在混合模型中,如果「產生」樣本的混合元素成分已知的話最大似然公式將變得更加便利(參見下面的例子)。

估計無法觀測的數據

代表向量: 定義的參數的全部數據的概率密度函數(連續情況下)或者概率質量函數(離散情況下),那麼從這個函數就可以得到全部數據的最大似然值,另外,在給定的觀察到的數據條件下未知數據的條件分佈可以表示為:

參見

參考文獻

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.