2013-07-24 83 views

回答

147
  1. bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
  2. bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
  3. 將Web瀏覽器來HDFS WEBUInamenode_machine:50070),瀏覽到您要複製的文件,向下滾動頁面,然後點擊下載文件
+0

完美塔裏克,我得到了它,**有該文件,甚至沒有目錄下的文件沒有物理位置。**斌/ Hadoop的dfs -ls/use/hadoop/myfolder我可以查看文件,從我得到的信息爲**要檢查文件,可以將它從HDFS複製到本地文件系統**,所以我儘管可以將它們從winscp – Surya

+1

再一次我需要提到tariq,非常感謝您爲您貢獻時間和知識。非常感謝 。你確實支持了很多,這給了像我這樣的新人很多的信心。 – Surya

+1

我明白了。如果您希望查看文件的內容或打開webui上的文件,您實際上可以使用hdfs cat命令。這將使您無法將文件下載到本地fs。不用謝。如果你對問題的答案100%滿意,你可以標記它們,以便其他人可以從中受益。不僅僅是這一個,而是一般。 – Tariq

9

爲了從HDFS文件複製到本地文件系統以下命令可以運行:

hadoop dfs -copyToLocal <input> <output>

  • <input>:你想要的HDFS目錄路徑(例如/ MYDATA)複製
  • <output>:目的地目錄路徑(例如〜/文檔)
+0

這似乎不適用於我。它總是說文件未找到。我使用的是具有分區的cloudera的虛擬機實例6.4 – SutharMonil

+0

@SutharMonil你確定該文件實際存在嗎?你可以通過「hadoop fs -ls」瀏覽嗎? –

+0

其他方式的命令是什麼? – NIMISHAN

-3
bin/hadoop fs -put /localfs/destination/path /hdfs/source/path 
+0

hdfs dfs -put是將文件從本地FS推送到HDFS的命令。 hdfs dfs -get是正確的選項 – broussea

6

在Hadoop的2.0,

hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path> 

其中,

  • http://<<name_node_ip>>:50070/explorer.html

  • output_path也許得到hdfs_input_file_path是文件,其中該文件將是的本地路徑複製到。

  • 你也可以用get來代替copyToLocal

3

你可以用這兩種方法來完成。

1.hadoop fs -get <HDFS file path> <Local system directory path> 
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path> 

例:

我的文件位於/sourcedata/mydata.txt 我想/用戶/拉維/ MYDATA複製文件到本地文件系統中的這條道路

hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/ 
0

這在我的Ubuntu的VM實例上工作。

HDFS DFS -copyToLocal [Hadoop的目錄] [本地目錄]

相關問題