2013-03-24 104 views
0

我使用壓縮包版本上安裝CDH4努力工作,但面臨的問題是在我拍的步驟如下:集羣不CDH4壓縮包安裝

我下載的壓縮包的鏈接https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs

我先解壓類Hadoop 0.20 MapReduce的0.20.2 + 1341 tar文件

我做了配置變化

hadoop-0.20-mapreduce-0.20.2+1341 since i wanted mrv1 not yarn . 

的第一件事一每人S在CDH4安裝提到的是配置HDFS

core-site.xml 
hdfs-site.xml 
mapred-site.xml 
masters --- which is my namenode 
slaves ---- my datanodes 

相關變更集羣

做了一個NameNode的格式複製所有節點上Hadoop的配置。

格式後,我不得不啓動集羣,但在bin文件夾不能

找到start-all.sh腳本。所以在這種情況下,我開始用命令

bin/start-mapred.sh 
在它顯示日誌

JobTracker的開始和TaskTracker共同開始從節點 但是當我做了JPS

我只能看到

jobtracker 
jps 

進一步去datanode啓動datanode與下面的命令

bin/hadoop-daemon.sh start datanode . 

它顯示datanode啓動。

Namenode沒有開始,tasktracker沒有開始。

當我與我的日誌檢查我可以看到

ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join 
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH 

不知道什麼是我停止集羣工作。

早些時候我有一個cdh3運行。所以我停止了cdh3集羣。然後我開始安裝cdh4。另外我改變了所有目錄hdfs-site.xml,即指出它爲namenode和datanode創建新的空目錄,而不是cdh3中定義的目錄。

但仍然沒有任何幫助。

另外我關閉防火牆,因爲我有一個根訪問,但它同樣的事情,它不適合我。

以上任何幫助將是很大的幫助。


感謝您的善意回覆,但

我沒有

start-dfs.sh file in bin folder 

只在/home/hadoop-2.0.0-mr1-cdh4.2.0/bin文件夾中的文件是爲

start-mapred.sh 
stop-mapred.sh 
hadoop-daemon.sh 
hadoop-daemons.sh 
hadoop-config.sh 
rcc 
slaves.sh 
hadoop 

命令現在我使用如以下

啓動數據節點:

for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ; 

啓動的NameNode:

bin/start-mapred.sh 

還是我的工作同樣的問題。

回答

-1

的JobTracker惡魔會在你的主節點開始和tasktraker惡魔將在每個數據節點的運行命令

bin/start-mapred.sh 

後在的Hadoop集羣搭建只有jobtacker上手惡魔將通過JPS命令顯示在masternode和您可以看到的每個datanode中Tasktracker惡魔使用JPS命令運行。

然後,你必須在你的masternode

bin/start-dfs.sh 

運行以下命令來啓動HDFS在你的NameNode的機器(在此配置您的masternode本身我相信)和Datanode的這個命令將啓動的NameNode惡魔在你的每個奴隸節點中開始。

現在你可以在每個數據節點的運行JPS,它會給輸出

tasktracker 
datanode 
jps 

我認爲這個鏈接將是有用的 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

1

嗨對不起上述誤解以下命令可以運行開始你的數據節點和NameNode的

要啓動的NameNode:

hadoop-daemon.sh start namenode 

要啓動數據節點:

hadoop-daemons.sh start datanode 

要啓動secondarynamenode:

hadoop-daemons.sh --hosts masters start secondarynamenode 
+0

謝謝。事情爲我工作最後cdh4工程。 – user1278493 2013-03-28 07:37:48