2011-03-06 78 views
0

我使用SolrJ發送數據到我的Solr服務器。 當我開始關閉程序時,它以大約每秒1000個文檔的速度索引東西(我承諾每250,000個文檔)Solr索引慢一段時間

我注意到當我的索引充滿大約500萬個文檔時,它開始爬行,而不僅僅是在提交時,也會增加時間。在同一臺機器

這裏就

我Solr的服務器和索引程序運行一些從我solrconfig相關部分:

<useCompoundFile>false</useCompoundFile> 
<ramBufferSizeMB>1024</ramBufferSizeMB> 
<mergeFactor>150</mergeFactor> 

有關如何解決這個問題有什麼建議?

+1

你有什麼想法是什麼花了這麼久?你有沒有嘗試分析索引運行? – nfechner 2011-03-07 09:01:36

+0

感謝您的評論,我最終分析並發現solr本身並不慢。我的客戶端程序生成內容(運行在同一臺機器上)是CPU密集型的,因此造成了速度緩慢。 – user497488 2011-03-11 02:05:30

回答

1

合併因子似乎真的,真的(真的)很高。

你真的想要嗎?

如果您不使用容易導致ulimit問題的複合文件(如果您是linux)。

+0

你說得對。我現在將值改爲25。 – user497488 2011-03-13 07:50:51