我試圖找到使用sklearn的LDA模型的最佳主題數量。要做到這一點,我通過引用https://gist.github.com/tmylk/b71bf7d3ec2f203bfce2上的代碼來計算困惑。 但是當我增加話題的數量時,困惑總會非理性地增加。我在實現中遇到錯誤還是隻能提供正確的值? from __future__ import print_function
from time impor
當STM模型收斂時,R相對頻繁地崩潰。在30小時以上的評估會議後,參見下面的圖例。這發生在兩臺不同的計算機上,具有不同的數據大小。我一直無法確定導致這些崩潰的任何特定模式 - 因爲崩潰似乎不是確定性的。 模型估計的設置是 # full
Year <- year(df$date) # year data from the environment
stmFit.full <- stm(out$d