我需要知道Spark如何允許工作節點之間的通信? 分配給工作人員的所有任務都來自主程序,但是可以將工作人員的輸出發送給其他工人,因此它可以處理其上的進一步步驟。是Apache Spark中允許的多階段工作者嗎?
我正在研究一種情況,其中存在多種類型要完成的任務,假設說任務A,B,C。 要啓動任務C,應完成任務A和B,但A和B可以彼此獨立完成。所以,我需要幾個工作人員來完成任務A,很少需要B,並且他們必須調用任務C的工人,而不涉及主人。請向我提供有關如何實現這一目標的見解。 紗線中有這種功能嗎?
這會給你帶來什麼好處?如果您分階段完成任務,那麼爲了ABC或BAC,不會像交錯A,B和C那樣花費大約相同時間? – DNA 2014-09-02 15:54:58
實際上,它就像流媒體,假設第一個請求是A1,B1,C1,第二個A2,B2和C2。因此,如果任務A1和B1完成,則第二階段的工人可以執行C1,而第一階段的工人可以繼續執行A2和B2。 – Maulik 2014-09-03 04:26:07
我認爲它可以在某些情況下有意義。然而@DNA與他的論點有一點關係。最後,並沒有太多的Spark分配潛力被使用。 – 2014-09-10 15:27:23