是否可以限制在任何給定時間使用Hadoop Streaming運行作業的mappers的數量?例如,我有一個可以爲每個節點運行1個任務的28節點羣集。如果我有100個任務的工作,我想在任何時候只使用28個節點中的20個。我想限制一些作業,因爲它們可能包含許多長時間運行的任務,我有時希望運行一些更快的運行作業,並確保它們能夠立即運行,而不是等待長時間運行的作業完成。限制在Hadoop Streaming上運行的mappers的數量
我看到了this的問題和標題是現貨,但答案似乎沒有解決這個特定的問題。
謝謝!
謝謝!這看起來非常接近我所期待的,儘管比我希望的稍微複雜一些。我會看看它是否會做到這一點。 – fozziethebeat 2012-03-06 18:28:03
你也可以檢查這一個,它有點不同,但也需要注意一個工作不會被其他工作餓死:http://hadoop.apache.org/common/docs/r0.20.2/fair_scheduler.html – 2012-03-06 19:15:40