我正在運行使用hadoop版本1.0.1和Ubuntu linux 11.10的單節點集羣。當它崩潰時,我正在運行一個簡單的腳本,可能是因爲我的電腦進入了睡眠狀態。我試圖重新使用如何在hadoop崩潰後格式化和添加文件?
斌/ Hadoop的NameNode的文件系統-format
,並得到了以下錯誤:
錯誤namenode.NameNode:產生java.io.IOException:無法鎖定存儲/程序/ Hadoop的的/ tmp/DFS /名稱。該目錄已被鎖定。在org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.lock(Storage.java:602)
我嘗試使用下面的命令來添加輸入文件:
斌/ Hadoop的FS -copyFromLocal DataDirectory目錄/ * TXT inputDirectory
並且得到錯誤:
15年12月4日9時05分21秒WARN hdfs.DFSClient:DataStreamer異常:org.apache.hadoop.ipc.RemoteException:java.io .IOException:文件/home/hduser/input/book1.txt只能複製到0個節點,而不是1個
12/04/15 09:05:21 WARN hdfs.DFSClient:錯誤恢復block null壞datanode [0]節點== null 12/04/15 09:05:21 WARN hdfs.DFSClient:無法獲取塊地點。源文件「/home/hduser/input/book1.txt」 - 正在中止...
之後,我看到輸入目錄中的文件,但它們的大小爲0.關於如何添加文件的任何想法?我能夠在hadoop崩潰之前添加文件,所以我可以重新安裝linux和hadoop,但它看起來像是過度殺傷。謝謝。
謝謝,Tejas的,但現在我甚至無法連接到本地主機,甚至是測試SSH之後。這是極端的,但我重新安裝Linux。 – user1106278 2012-04-16 23:54:44
你會得到什麼錯誤? – 2012-04-17 01:57:52
這對我有用,除了我必須在hdfs-site.xml文件中設置dfs.name.dir和dfs.data.dir。我不確定爲什麼它沒有工作,因爲沒有分區接近滿。 – MikeKulls 2013-10-22 05:09:26