2011-12-23 100 views
2

我試着在Ubuntu 11.04和Java 6 sun上設置Hadoop安裝。我正在使用hadoop 0.20.203 rc1版本。我在java-6-sun的Ubuntu 11.04上反覆遇到了一個問題。當我嘗試啓動hadoop時,由於「無法訪問存儲」,datanode無法啓動。DataNode無法在Hadoop中啓動

2011-12-22 22:09:20,874 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot lock storage /home/hadoop/work/dfs_blk/hadoop. The directory is already locked. 
2011-12-22 22:09:20,896 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Cannot lock storage /home/hadoop/work/dfs_blk/hadoop. The directory is already locked. 
     at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.lock(Storage.java:602) 
     at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:455) 
     at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:111) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:354) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:268) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1480) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1419) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1437) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1563) 
     at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1573) 

我試過升級和降級到0.20分支的幾個版本從Apache,甚至cloudera,也刪除和​​安裝hadoop再次。但我仍然遇到這個問題。典型的解決方法,如刪除/ tmp目錄中的* .pid文件也不起作用。有人能指出我解決這個問題嗎?

+0

下次請正確格式化您的日誌。 – 2011-12-23 07:10:56

回答

4

是我格式化了名稱節點,問題出在流氓模板hdfs-site.xml上,我複製粘貼,dfs.data.dirdfs.name.dir指向相同的目錄位置導致鎖定存儲錯誤。他們應該是不同的目錄。不幸的是,在這些細微的細節中,hadoop文檔還不夠清楚。