0
我有一個循環迭代次數太多,並且在Reducer函數中有一個計算量很大的函數。如何避免在Hadoop中發生Map/Reduce任務失敗
while (context.getCounter(SOLUTION_FLAG.SOLUTION_FOUND).getValue() < 1 && itrCnt < MAX_ITR)
MAX_ITR是重複計數 - 用戶輸入
問題是,當我的Hadoop集羣上運行它有超時錯誤和減速的任務是殺死
17/05/06 21:09:43 INFO mapreduce.Job: Task Id : attempt_1494129392154_0001_r_000000_0, Status : FAILED
AttemptID:attempt_1494129392154_0001_r_000000_0 Timed out after 600 secs
我應該怎麼做,以避免時間到? (我的猜測是心跳信號。)
其實,[這](http://stackoverflow.com/a/11815803/7584363)一個完美的解決了這個問題,但參考鏈接是好的。謝謝 –