我正在使用Pentaho Data Integration 7.1將一些本地文件複製到Hadoop 2.8.0羣集。我在Pentaho上創建了Hadoop集羣連接,並且正在使用Hadoop Copy Files步驟。我可以成功上傳的文件,當我執行從GUI(spoon.sh)我的工作,我可以看到在日誌下面一行:從廚房執行時,作業中的不同行爲
Hadoop Copy Files - Processing row source File/folder source : [file:///home/etl/Desktop/users_full_20170620.csv] ... destination file/folder : [hdfs://hadoop:***@spark-master.cu:9000/value_iq]... wildcard : [null]
但是,當我嘗試使用運行相同的轉換kitchen.sh失敗,我得到了以下錯誤:
Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : Folder file:///value_iq/bin/kettle/data-integration_7.1/hdfs:/hadoop:[email protected]:9000/value_iq does not exist!
不知怎的,它加入其中kitchen.sh位於HDFS網址前面的路徑,假設目的地環境是本地的。
這是我的Hadoop複製文件的步驟
這個bug的JIRA報告已創建的截圖:http://jira.pentaho.com/browse/PDI-16443
謝謝,我創建了jira問題http://jira.pentaho.com/browse/PDI-16443 – Jose
也似乎首先你嘗試複製錯誤配置的hadoop集羣。 因此,請檢查您的文件夾中是否存在名稱爲「hdfs:」的文件夾:///value_iq/bin/kettle/data-integration_7.1/ 如果存在,請將其刪除。 – Sedos