2016-10-22 104 views
0

當我查看Spark UI上的Jobs選項卡時,可以看到任務狀態如20/20 /(4失敗)。Spark Streaming失敗執行器任務

這是否意味着失敗的任務會丟失數據?這些失敗的任務是不是轉移到了diff執行器?

enter image description here

回答

3

雖然你應該警惕失敗的任務(它們通常一個潛在的內存問題的指標),你不必擔心數據丟失。這些階段已被標記爲已成功完成,因此失敗的任務實際上(最終)已成功處理。

+0

謝謝Glennie。 – AKC

+0

@AKC雖然任務失敗一般不應該擔心,但我失敗的任務經常會讓你擔心。你能否爲失敗的任務添加額外的堆棧跟蹤和錯誤消息? –

相關問題