2014-10-16 67 views
0

我在我的3臺機器上設置了hadoop 1.2.1。當退役的機器工作正常。 但是,當調試一個新的datanode時,它會導致我的其他2個datanode。調試hadoop中的datanode

設置如下:

  • 192.168.1.4 - 的Namenode,SecondaryNameNode,數據節點,的TaskTracker,JobTracker的
  • 192.168.1.5 - 的DataNode,TaskTracker共同
  • 192.168.1.6 - 數據管理部,Tasktracker

我已將複製因子設置爲2跨所有機器。

步驟我也跟着委託數據節點:

首先開始了我的集羣192.168.1.4 192.168.1.5和使用的啓動腳本。 更新我包括與192.168.1.6文件

斌/ Hadoop的dfsadmin -refreshNodes

斌/ Hadoop的mradmin -refreshNodes

更新奴文件。

bin/hadoop dfsadmin -report - 這顯示我的intitial運行datanodes已死,並且包含的​​datanode活着。

請讓我知道這個過程中出了什麼問題,以及爲什麼其他數據節點被關閉。

回答

0

我不知道在可能發生什麼問題,我嘗試調試和它工作得很好,但你可以做一件事 就死了數據節點執行以下命令單獨

1)./斌/ hadoop- daemon.sh啓動數據節點 2)./斌/ hadoop-daemon.sh開始的TaskTracker

後的名稱節點,其執行以下命令 1)斌/ hadoop的dfsadmin -report

-1

最初Hadoop的dfsadmin - 報告作爲commi的一部分添加的節點ssioning顯示死節點

完成下面的步驟來克服這個問題 是回答這個

1) Go to Datanodes that you added as a part of commissioning 
2) Execute the commands if it is Hadoop 2.x 
    /usr/local/hadoop-2.7.2/sbin$ hadoop-daemon.sh start datanode 
    /usr/local/hadoop-2.7.2/sbin$ yarn-daemon.sh start nodemanger 
3) The NameNode URI Its showing the added node as live node 
相關問題