2017-11-25 175 views
0
hive>LOAD DATA INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text; 

失敗:1:17 SemanticException線的路徑無效 '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv '':沒有文件 匹配路徑 HDFS ://本地主機:9000/Hadoop的/ ABC/POC2_Setup /輸入/ warr2_claims_5441F.csv局部加載數據到數據庫蜂房面臨的問題

+0

你有文件 - hdfs:// localhost:9000/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv。任何你有/ user/hadoop文件而不是/ hadoop的機會? – Ramesh

回答

1

如果我們從本地文件系統加載,我們需要使用關鍵字「本地」,如下圖,

LOAD DATA LOCAL INPATH'你的本地文件路徑'覆蓋表中你的hive-table;

如果從HDFS加載,

LOAD DATA INPATH '你的HDFS文件路徑' 覆蓋INTO TABLE您的蜂巢表;

0

如果您正在加載從本地數據,那麼你就不得不提到LOCAL

hive>LOAD LOCAL DATA INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text;

,如果你的默認目錄未設置爲本地,那麼你必須在路徑之前提到file:/

0

加載從本地機器,你可以使用下面的命令數據:

LOAD DATA LOCAL INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text;