2016-09-19 101 views
1

我期望scikit-learn的DP-GMM允許在給定新數據的情況下在線更新集羣分配,但sklearn的DP-GMM實現只有一個合適的方法。DP-GMM和在線集羣分配

我對變分推理的理解尚不清楚,我認爲在線更新集羣分配的能力是sklearn實現的特點,而不是無限GMM的變分推理。

如果有人能夠澄清這一點,並指出一個能夠在線更新集羣分配的實現,我將非常感激!

http://scikit-learn.org/stable/modules/generated/sklearn.mixture.DPGMM.html

回答

0

發佈Dawen Liang的解釋:

  1. 貝葉斯非參不等於網上學習。這僅僅意味着根據數據確定模型的複雜性,這可能發生在批處理學習環境中(如sklearn的DP-GMM實現)。

  2. 變分推理本質上是一種基於優化的方法,所以您當然可以應用隨機優化方法,這就是您可以進行在線學習的能力。對貝葉斯非參數模型應用隨機變分分析實際上仍然是一個活躍的研究領域。

Emily Fox's sampler sticky HDP-HMM

John Paisley's group HDP-HMM Matt Hoffman's infinite HMM (perhaps not HDP)

1http://www.stat.washington.edu/~ebfox/software/HDPHMM_HDPSLDS_toolbox.zip