2015-04-22 68 views
13

在我的測試ELK集羣,試圖從上週數據看,當我遇到下面的錯誤。elasticsearch/kibana錯誤「數據過大,數據[@timestamp]將大於限制

Data too large, data for [@timestamp] would be larger than limit 

約碎片失敗似乎是誤導,因爲elasticsearch監測工具kopfhead表明,所有碎片都工作正常,彈性集羣是綠色的警告。

enter image description here

彈性搜索的Google組中的一位用戶建議增加內存。我已經將3個節點增加到8GB,每個節點有4.7GB堆,但問題仍然存在。 我每天生成大約5GB到25GB的數據,並保留30天。

回答

31

清除緩存現在緩解症狀。

http://www.elastic.co/guide/en/elasticsearch/reference/current/indices-clearcache.html

清除單個索引

curl -XPOST 'http://localhost:9200/twitter/_cache/clear' 

清除多個indicies

curl -XPOST 'http://localhost:9200/kimchy,elasticsearch/_cache/clear' 

curl -XPOST 'http://localhost:9200/_cache/clear' 

或者如通過IRC一個用戶建議。這一個似乎工作得最好。

curl -XPOST 'http://localhost:9200/_cache/clear' -d '{ "fielddata": "true" }' 
+0

我遇到了同樣的問題,清除緩存解決了它們。我不確定這是否需要定期完成。謝謝! – Carlos

+0

這工作!謝謝!儘管現在已經使用ES好幾年了,但從未見過這個問題......非常奇怪。 –

+0

是的,發生了同樣的問題並清除了緩存,並且所有內容都恢復了工作。 Upvote和明星的問題。 – Gman