2017-02-09 42 views

回答

1

它先執行8個任務,然後當核心變爲可用時,其他22個任務逐個執行?

是的。 Spark UI有一個事件時間軸視圖來觀察它[1]。您還可以看到Spark日誌中的任務何時開始。

[1] https://databricks.com/blog/2015/06/22/understanding-your-spark-application-through-visualization.html

+0

該鏈接非常有用!後續問題:如果任務數量永遠不會高於內核數量,那麼分配更多分區比內核數量沒有任何理由/好處,對嗎? – Glide

+0

完全取決於數據,例如錯誤的分區,數據傾斜,失敗者(慢節點)。如果您的分區很大,並且調度任務的開銷很低,我會考慮使用比核心數量多的分區。 – zsxwing

+0

對不起,我不明白你最後的回覆(由於我的知識有限)。我爲此創建了另一個問題。你能在那裏回答嗎? http://stackoverflow.com/questions/42284477/does-it-ever-make-sense-to-run-more-partitions-than-number-of-cores – Glide

相關問題