Loading AI tools
马尔可夫统计模型 来自维基百科,自由的百科全书
隱馬爾可夫模型(英語:Hidden Markov Model;縮寫:HMM),或稱作隱性馬可夫模型,是統計模型,用來描述一個含有隱含未知參數的馬爾可夫過程。其難點是從可觀察的參數中確定該過程的隱含參數。然後利用這些參數來作進一步的分析,例如模式識別。
此條目需要補充更多來源。 (2015年7月3日) |
在正常的馬爾可夫模型中,狀態對於觀察者來說是直接可見的。這樣狀態的轉換概率便是全部的參數。而在隱馬爾可夫模型中,狀態並不是直接可見的,但受狀態影響的某些變量則是可見的。每一個狀態在可能輸出的符號上都有一概率分布。因此輸出符號的序列能夠透露出狀態序列的一些信息。
隱馬爾可夫模型在熱力學、統計力學、物理學、化學、經濟學、金融學、信號處理、信息論、模式識別(如語音識別、[1]手寫識別、手勢識別、[2]詞性標記、樂譜跟隨[3])、局部放電[4]及生物信息學等領域都有應用。[5][6]
令、為離散時間隨機過程, 。則是隱馬爾可夫模型的條件是:
令、為連續時間隨機過程。則是隱馬爾可夫模型的條件是:
過程狀態(或)稱作隱狀態,(或)稱作條件概率或輸出概率。
下邊的圖示強調了HMM的狀態變遷。有時,明確的表示出模型的演化也是有用的,我們用 x(t1) 與 x(t2) 來表達不同時刻 t1 和 t2 的狀態。
圖中箭頭方向則表示不同資訊間的關聯性,因此可以得知和有關,而又和有關。
而每個只和有關,其中我們稱為隱藏變數(hidden variable),是觀察者無法得知的變數。
隱性馬可夫模型常被用來解決有未知條件的數學問題。
假設隱藏狀態的值對應到的空間有個元素,也就是說在時間時,隱藏狀態會有種可能。
同樣的,也會有種可能的值,所以從到間的關係會有種可能。
除了間的關係外,每組間也有對應的關係。
若觀察到的有種可能的值,則從到的輸出模型複雜度為。如果是一個維的向量,則從到的輸出模型複雜度為。
在這個圖中,每一個時間塊(x(t), y(t))都可以向前或向後延伸。通常,時間的起點被設置為t=0 或 t=1.
假設觀察到的結果為
隱藏條件為
長度為,則馬可夫模型的機率可以表達為:
由這個機率模型來看,可以得知馬可夫模型將該時間點前後的資訊都納入考量。
HMM有三個典型(canonical)問題:
此外,已知輸出序列,尋找最可能的狀態轉移以及輸出概率.通常使用Baum-Welch算法以及Viterbi algorithm解決。另外,最近的一些方法使用聯結樹算法來解決這三個問題。 [來源請求]
假設你有一個住得很遠的朋友,他每天跟你打電話告訴你他那天做了什麼。你的朋友僅僅對三種活動感興趣:公園散步,購物以及清理房間。他選擇做什麼事情只憑天氣。你對於他所住的地方的天氣情況並不了解,但是你知道總的趨勢。在他告訴你每天所做的事情基礎上,你想要猜測他所在地的天氣情況。
你認為天氣的運行就像一個馬爾可夫鏈。其有兩個狀態「雨」和「晴」,但是你無法直接觀察它們,也就是說,它們對於你是隱藏的。每天,你的朋友有一定的概率進行下列活動:「散步」、「購物」、「清理」。因為你朋友告訴你他的活動,所以這些活動就是你的觀察數據。這整個系統就是一個隱馬爾可夫模型(HMM)。
你知道這個地區的總的天氣趨勢,並且平時知道你朋友會做的事情。也就是說這個隱馬爾可夫模型的參數是已知的。你可以用程序語言(Python)寫下來:
states = ('Rainy', 'Sunny')
observations = ('walk', 'shop', 'clean')
start_probability = {'Rainy': 0.6, 'Sunny': 0.4}
transition_probability = {
'Rainy' : {'Rainy': 0.7, 'Sunny': 0.3},
'Sunny' : {'Rainy': 0.4, 'Sunny': 0.6},
}
emission_probability = {
'Rainy' : {'walk': 0.1, 'shop': 0.4, 'clean': 0.5},
'Sunny' : {'walk': 0.6, 'shop': 0.3, 'clean': 0.1},
}
在這些代碼中,start_probability
代表了你對於你朋友第一次給你打電話時的天氣情況的不確定性(你知道的只是那個地方平均起來下雨多些)。在這裡,這個特定的概率分布並非平衡的,平衡概率應該接近(在給定變遷概率的情況下){'Rainy': 0.571, 'Sunny': 0.429}
。
transition_probability
表示基於馬爾可夫鏈模型的天氣變遷,在這個例子中,如果今天下雨,那麼明天天晴的概率只有30%。代碼emission_probability
表示了你朋友每天做某件事的概率。如果下雨,有50% 的概率他在清理房間;如果天晴,則有60%的概率他在外頭散步。
這個例子在維特比算法頁上有更多的解釋。
下圖展示了實例化HMM的一般結構。橢圓形代表隨機變量,可採用多個數值中的任意一種。隨機變量是t時刻的隱狀態(圖示模型中);隨機變量y(t)是t時刻的觀測值();箭頭表示條件依賴關係。
圖中可清楚看出,給定隱變量在時間t的條件概率分布只取決於隱變量的值,之前的則沒有影響,這就是所謂馬爾可夫性質。觀測變量同理,只取決於隱變量的值。
在本文所述標準HMM中,隱變量的狀態空間是離散的,而觀測值本身則可以離散(一般來自分類分布)也可以連續(一般來自正態分布)。HMM參數有兩類:轉移概率與輸出概率,前者控制時刻的隱狀態下,如何選擇t時刻的隱狀態。
隱狀態空間一般假設包含N個可能值,以分類分布為模型。這意味着,對隱變量在t時刻可能所處的N種狀態中的每種,都有到時刻可能的N種狀態的轉移概率,共有個轉移概率。注意從任意給定狀態轉移的轉移概率之和須為1。於是,轉移概率構成了N階方陣,稱作馬爾可夫矩陣。由於任何轉移概率都可在已知其他概率的情形下確定,因此共有個轉移參數。
此外,對N種可能狀態中的每種,都有一組輸出概率,在給定隱狀態下控制着觀測變量的分布。這組概率的大小取決於觀測變量的性質,例如,若觀測變量是離散的,有M種值、遵循分類分布,則有個獨立參數,所有隱狀態下共有個輸出概率參數。若觀測向量是M維向量,遵循任意多元正態分布,則將有M個參數控制均值,個參數控制協方差矩陣,共有個輸出參數。(這時,除非M很小,否則限制觀測向量各元素間協方差的性質可能更有用,例如假設各元素相互獨立,或假設除固定多相鄰元素外,其他元素相互獨立。)
HMM的參數學習任務是指在給定輸出序列或一組序列的情形下,找到一組最佳的狀態轉換和轉移概率。任務通常是根據一組輸出序列,得到HMM參數的最大似然估計值。目前還沒有精確解這問題的可行算法,可用鮑姆-韋爾奇算法或Baldi–Chauvin算法高效地推導出局部最大似然。鮑姆-韋爾奇算法是最大期望算法的特例。
若將HMM用於時間序列預測,則更複雜的貝葉斯推理方法(如馬爾可夫鏈蒙特卡洛採樣法,MCMC採樣法)已被證明在準確性和穩定性上都優於尋找單一的最大似然模型。[7]由於MCMC帶來了巨大的計算負擔,在計算可擴展性也很重要時,也可採用貝葉斯推理的變分近似方法,如[8]。事實上,近似變分推理的計算效率可與期望最大化相比,而精確度僅略遜於精確的MCMC型貝葉斯推理。
因為馬可夫模型有下列特色:
隱馬爾可夫模型最初是在20世紀60年代後半期Leonard E. Baum和其它一些作者在一系列的統計學論文中描述的。HMM最初的應用之一是開始於20世紀70年代中期的語音識別。[9]
在1980年代後半期,HMM開始應用到生物序列尤其是DNA的分析中。此後,在生物信息學領域HMM逐漸成為一項不可或缺的技術。[10]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.