負數當使用spark-1.6.2和pyspark,我看到了這一點:活動任務是Spark UI
,你看到的是,活動任務是負號(的區別來自已完成任務的總任務)。
此錯誤的來源是什麼?
節點,我有很多執行人。然而,似乎有一項似乎是空閒的任務(我沒有看到任何進展),而另一項相同的任務正常完成。
而且這關係:即mail我可以證實,正在創建的許多任務,因爲我使用的1K或2K執行人。
我得到的錯誤是有點不同:
16/08/15 20:03:38 ERROR LiveListenerBus: Dropping SparkListenerEvent because no remaining room in event queue. This likely means one of the SparkListeners is too slow and cannot keep up with the rate at which tasks are being started by the scheduler.
16/08/15 20:07:18 WARN TaskSetManager: Lost task 20652.0 in stage 4.0 (TID 116652, myfoo.com): FetchFailed(BlockManagerId(61, mybar.com, 7337), shuffleId=0, mapId=328, reduceId=20652, message=
org.apache.spark.shuffle.FetchFailedException: java.util.concurrent.TimeoutException: Timeout waiting for task.
Hokam,看來我們的答案是一致的!太好了,謝謝你的讚賞!作爲一種公平的舉動,我會接受你的。 :) – gsamaras