2012-04-18 49 views

回答

3

如果您指的是前向 - 後向算法,那麼將其應用於Baum-Welch algorithm內部用於訓練HMM,其用於各種領域,例如NLP(詞性標註,語音識別)和生物信息學。

1

實際上,正向算法不同於Baum-Welch中使用的前向後向(EM)算法。正向算法用於確定給定一系列觀察值的狀態的概率。對於每次觀察,您都可以計算出先前觀察計算出的狀態的概率,然後使用轉移概率表將其擴展一步。正向算法基本上是一種有效的方法,因爲它緩存所有中間狀態概率,因此它們只計算一次。 (這是一種記憶或動態編程的形式...)

Baum-Welch算法用於從數據中推導過渡和發射概率,而正向算法(和維特比算法)使用此數據計算狀態概率和給定觀察值的最可能狀態。

1

爲了澄清幾個百分點,因爲我與正向算法的維基百科表徵不同意(見德賓):

正向(和單獨,向後)被用來計算觀測/排放物的序列的概率當狀態路徑未知時,此外,計算的概率要比天真的方法(非常快速地結束於組合爆炸)更有效。它們一起可以提供觀測序列中每個位置的給定發射/觀測的概率。根據這些信息計算出最可能的狀態路徑的一個版本(「後解碼」)。維特比算法計算最可能的狀態路徑的另一版本。

事實上,與計算給定序列w.r.t的概率的麻煩相比,Forward或Backward的良好實現將爲您節省大量時間。 其他狀態路徑。

您將看到這些應用程序在您想要將系統可以處於的狀態與可以測量的有關係統的可觀察狀態分開的任何環境中應用。最有可能(和複雜)可能是財務問題。簡單地說,你的狀態路徑由[Bull,Bear]中的元素組成,並且你已經從VIX或之後幾個月的解碼後狀態路徑以與您正在進行的商業/地緣政治事件相關的決議試圖捕捉。這種計算可以用來訓練你的模型,當你接收到新的和更多的數據時(通過Baum-Welch或更一般的EM算法),Forward會告訴你什麼時候獲得的數據(你的實時序列觀測值)相對於您期望從您的模型中得到的結果的概率變得非常低(至此爲止)。統計學上講,這就是你買或賣的時間。