2012-07-23 106 views
2

維基百科說你不知道第一個狀態是什麼,所以你必須在先前的狀態向量中分配每個狀態的概率。但是你確實知道轉移概率矩陣是什麼,並且該矩陣的特徵值爲1的特徵向量是HMM中每個狀態的頻率(我認爲),那麼爲什麼不用這個向量來處理先驗概率狀態向量呢?爲什麼前向 - 後向算法中的先驗狀態向量不是特徵值爲1的轉移矩陣的特徵向量?

+0

通常在迭代算法中,初始起始位置並不重要,因爲它最終會收斂。無論如何,你應該添加一個鏈接到你提到的維基百科文章,否則這個問題會變得模糊。 – hugomg 2012-07-23 21:16:06

回答

2

這實際上是一個建模決定。你的建議當然是可能的,因爲它幾乎相當於在大量的觀察結果前面添加了一個觀察點,其中根本沒有觀察到隱藏狀態或者沒有影響 - 這會給出任何原始狀態的時間來平衡到平衡點分配。

但是,如果您有一段具有分隔開頭的觀察值,例如說話者開始時的一段語音或從句首開始的一段文字,則沒有特別的理由相信第一個狀態的分佈與均衡分佈是一樣的:我非常懷疑'e'是否是句子開頭最常見的字符,而衆所周知,它是英語中最常見的字符文本。

除非你有很多非常短的觀測序列,否則你選擇的並不重要。大多數情況下,如果您想將狀態概率中的一個置爲零,我只會擔心,因爲經常用於優化HMM參數的EM算法或Baum-Welch算法可能不願重新估計遠離零的參數。