我想知道如果我使用JUNG2和PageRank時遇到的相對較慢的性能是否合理,考慮到我正在使用的數據。JUNG圖表性能 - 緻密圖表上的PageRank
給定一個包含200個頂點和40000個邊的圖,計算該圖的PageRank大約需要15秒。給定一個具有〜900個頂點和〜800000個邊的圖,計算該圖的PageRank需要將近5分鐘的時間。
我意識到這些圖很密集,也許這自然會需要一段時間來計算。但是,這些圖形並不是特別大,按照這個速度,一次只能計算一小部分圖形是不可能的。 (10,000個頂點和100,000,000個邊緣大約需要8個小時)。
我正在使用一個DirectedSparseGraph與基元整數作爲頂點和邊緣,並沒有邊權重。這些顯然不是稀疏圖,所以也許有一個更合適的圖結構可用於密集圖更優化?
我在服務器模式下運行帶有大量堆空間的jvm,並確認整個圖形適合內存,並且不使用交換。
排名結果是正確的,總和爲1,並匹配榮格源和其他地方的測試示例。
也許有一個更高性能的方法和庫?但是,即使速度提高了10倍,是否它的時間複雜度與邊數成正比這一事實並不意味着我很快就會超出的限制,無論我使用的是什麼方法?
例如,我認爲只是完全跳過圖表方法,並使用矩陣來表示轉換概率,這可能會提供顯着提升。但是 - PageRank並不是我感興趣的唯一算法。如果我開始滾動我自己的方法來解決一個問題並引入其他幾個方法。另外,我在一個慢盒子,雙核1Ghz,所以,你的數字可能會好很多(比如我的第一個例子說4-5秒),但這一點成立。我主要關心的是,如果代碼預計會以更快的速度運行,或者預期以對數形式進行擴展。
無論如何,謝謝你的見解。
我在文本主體中排列句子,其中節點是句子,邊緣是它們的語義相似性。你可以想象,在我進入頁面排名之前,nlp處理已經很昂貴了。我可以通過消除不可能在最終結果中得到高分的低得分邊緣來顯着減少邊緣。另外...我使用2(Vn)邊的有向圖來說明每個原點頂點的不同權重。這可以通過重寫getEdgeWeights來改善,正如您在相關問題中所建議的那樣。 – Scott 2014-11-04 02:15:48
換句話說......似乎我唯一的選擇是通過任何必要的手段來減少邊的數量,以便計算任何較大的圖。但我想知道如何計算非常大的圖表?只是拋出硬件問題? – Scott 2014-11-04 02:24:04
我同意所有配對NLP可能會比PR計算貴一點。爲了減少邊緣,你可以嘗試對句子進行聚類,如果你有某種方法做這個也不是O(N),然後計算簇內邊緣。不知道計算這種網絡的PR有什麼意義,但這是你的問題。 :) – 2014-11-04 03:55:11