2016-07-31 48 views

回答

2

不,這是不可能的。 Spark會照顧它,當執行者死亡時,它會在下一次爲執行者請求「資源容器」時請求一個新的執行者。

如果執行程序接近要處理的數據Spark將根據任務的本地優先級請求新的執行程序,並且有可能執行程序已經死亡的主機將再次用於運行新的執行程序。

執行程序是一個JVM進程,它爲任務產生線程,並且實際上並沒有太多的工作。如果你關心數據塊,你應該考慮使用Spark的外部洗牌服務。

請考慮閱讀官方文檔中的文檔Job Scheduling

+0

有時候我所有的Spark執行者都崩潰了,而Spark剛剛被絞死。有沒有辦法通過退出或引發異常擺脫被絞死的狀態? – Michael

+0

有趣。從來沒有聽說過/看過它。我會很高興看到這種情況下的日誌。 –

+0

好的,我將就此創建另一個問題討論,謝謝。 – Michael

相關問題