我使用壓縮包版本上安裝CDH4努力工作,但面臨的問題是在我拍的步驟如下:集羣不CDH4壓縮包安裝
我下載的壓縮包的鏈接https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs
我先解壓類Hadoop 0.20 MapReduce的0.20.2 + 1341 tar文件
我做了配置變化
hadoop-0.20-mapreduce-0.20.2+1341 since i wanted mrv1 not yarn .
的第一件事一每人S在CDH4安裝提到的是配置HDFS
我
core-site.xml
hdfs-site.xml
mapred-site.xml
masters --- which is my namenode
slaves ---- my datanodes
相關變更集羣
做了一個NameNode的格式複製所有節點上Hadoop的配置。
格式後,我不得不啓動集羣,但在bin文件夾不能
找到start-all.sh腳本。所以在這種情況下,我開始用命令
bin/start-mapred.sh
在它顯示日誌
JobTracker的開始和TaskTracker共同開始從節點 但是當我做了JPS
我只能看到
jobtracker
jps
進一步去datanode啓動datanode與下面的命令
bin/hadoop-daemon.sh start datanode .
它顯示datanode啓動。
Namenode沒有開始,tasktracker沒有開始。
當我與我的日誌檢查我可以看到
ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH
不知道什麼是我停止集羣工作。
早些時候我有一個cdh3運行。所以我停止了cdh3集羣。然後我開始安裝cdh4。另外我改變了所有目錄hdfs-site.xml,即指出它爲namenode和datanode創建新的空目錄,而不是cdh3中定義的目錄。
但仍然沒有任何幫助。
另外我關閉防火牆,因爲我有一個根訪問,但它同樣的事情,它不適合我。
以上任何幫助將是很大的幫助。
感謝您的善意回覆,但
我沒有
start-dfs.sh file in bin folder
只在/home/hadoop-2.0.0-mr1-cdh4.2.0/bin文件夾中的文件是爲
start-mapred.sh
stop-mapred.sh
hadoop-daemon.sh
hadoop-daemons.sh
hadoop-config.sh
rcc
slaves.sh
hadoop
命令現在我使用如以下
啓動數據節點:
for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ;
啓動的NameNode:
bin/start-mapred.sh
還是我的工作同樣的問題。
謝謝。事情爲我工作最後cdh4工程。 – user1278493 2013-03-28 07:37:48