2
我試着在Ubuntu 11.04和Java 6 sun上設置Hadoop安裝。我正在使用hadoop 0.20.203 rc1版本。我在java-6-sun的Ubuntu 11.04上反覆遇到了一個問題。當我嘗試啓動hadoop時,由於「無法訪問存儲」,datanode無法啓動。DataNode無法在Hadoop中啓動
2011-12-22 22:09:20,874 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot lock storage /home/hadoop/work/dfs_blk/hadoop. The directory is already locked.
2011-12-22 22:09:20,896 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Cannot lock storage /home/hadoop/work/dfs_blk/hadoop. The directory is already locked.
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.lock(Storage.java:602)
at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:455)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:111)
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:354)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:268)
at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1480)
at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1419)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1437)
at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1563)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1573)
我試過升級和降級到0.20分支的幾個版本從Apache,甚至cloudera,也刪除和安裝hadoop再次。但我仍然遇到這個問題。典型的解決方法,如刪除/ tmp目錄中的* .pid文件也不起作用。有人能指出我解決這個問題嗎?
下次請正確格式化您的日誌。 – 2011-12-23 07:10:56