2016-12-07 85 views
0

從stats api獲得的elasticsearch安裝中的文檔計數顯示,實際文檔數大約是來自count api的約2700萬時的大約7億次。我們瞭解到,這種差異來自嵌套文檔計數 - stats api顯示全部。Elasticsearch和Lucene文檔限制

在Lucene文檔中,我們讀到了一個分片有20億硬文檔計數限制。我是否應該擔心elasticsearch即將達到文檔限制?或者我應該監視count api的數據嗎?

+0

也許你應該考慮把你的數據分成更多的索引。 例如,如果您要存儲基於時間的數據,則可以創建每日索引。 –

+0

其實我們不直接控制索引,我們依靠apache usergrid進行索引控制。 –

回答

0

是的,每個20億分片的文檔數量是有限制的,這是一個強烈的lucene限制。

您可以在單個Lucene索引中擁有最大數量的文檔。從https://issues.apache.org/jira/browse/LUCENE-5843[LUCENE-5843],限制是2,147,483,519(= Integer.MAX_VALUE - 128)文件。

您應該考慮水平縮放。