2016-12-01 79 views
1

這裏是我的問題:蜂巢查詢 - 失敗SemanticException無效的路徑

我剛剛得到我最初的Azure訂閱後轉換爲現收現付你去認購(第一次是30天試用版)當我用完第一套免費積分時,它就被關閉了。現在所有的工作都很好 - 我仍然有相同的舊資源組,我建立了一個新的羣集。帶有我的CSV數據的文件全部仍然存在於我上次創建的容器中(不是默認的容器,而是之前建立的容器)。我必須重新創建的唯一事情就是加載數據所需的Hive表。此外,我還能夠再次建立這個表格。然而,當我再嘗試運行蜂巢查詢實際數據加載到從CSV文件如下蜂房表...

LOAD DATA INPATH '/container1/HdiSamples/user/data-file.csv' OVERWRITE INTO TABLE default.hive_table; 

...我不斷地接收到「失敗」的錯誤消息(我使用VS的Data Lake工具來上傳blob並運行查詢)。在特定的錯誤日誌中,以'FAILED:SemanticException等'開頭的行每次突出顯示...(儘管使用不同的位置進行文件上傳)。

16/12/01四點16分25秒WARN conf.HiveConf:名稱hive.log.dir的HiveConf不存在 失敗:SemanticException線1:17的路徑無效 ''/ container1/HdiSamples /用戶/數據FILE.CSV '':沒有匹配的文件路徑wasb://[email protected]/container1/HdiSamples/user/data-file.csv

這裏是我的問題:

任何人都可以告訴我爲什麼它沒有找到並從文件實際位於的位置加載文件...?

我只是不明白此錯誤的原因...

回答

0

儘管它已經有一段時間,因爲我問這個問題,我摸索出瞭解決問題我自己,我想,我會分享與其他人...

我有問題一週左右,無法從Azure Blob存儲加載數據到Hive表。我在我的blob中有兩個名爲data-file.csv和data-file-extended-1.CSV的CSV文件。請注意這裏的文件擴展名中的首字母!

除非...... 一)的文件名的拼寫完全相同以同樣的方式,包括在文件擴展名首都蜂房和Hadoop不接受這些文件 和 B)的文件名急劇和不縮短連字符和數字(在我的情況下,我只用了6個連字母,即「datfil」和「datfix」)

令人震驚的是,在官方的Azure文檔中也沒有提到這些問題,網絡。但是,這兩個調整將解決錯誤消息。爲了讓人們知道...