2014-09-20 47 views
1

我正在嘗試在Hbase中進行大容量加載。但我很困惑,我應該使用哪個罐子下面的命令:HBase大容量加載jar問題

hadoop jar /usr/lib/hbase/hbase-0.94.6-cdh4.3.0-security.jar importtsv 

當我執行這個命令有一個java類沒有發現異常。 我的Hbase版本是hbase-0.98.5-hadoop1。我無法找到正確的jar來運行上述命令,並且我無法在hbase-0.98.5-hadoop1/lib文件夾中找到hbase-0.94.6-cdh4.3.0-security.jar。 hbase的hbase-0.98.5-hadoop1版本是否有相應的jar版本。我是新來批量加載所以請原諒我,如果我要問一個奇怪的問題

+0

嗨,我堅持與此有幾天。任何人都知道答案? – Neethu 2014-09-21 16:53:14

+0

什麼是沒有找到的類? – 2014-09-22 11:35:57

+0

哪個罐子通常用於批量加載?在我的hbase版本中,我無法找到適合的jar。 – Neethu 2014-09-23 17:44:05

回答

3

如果您有在classpath HBase的路徑,你可以直接運行它像這樣:

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.skip.bad.lines=true -Dimporttsv.columns="$columns" $table_name $file

+0

** hbase org.apache.hadoop.hbase .mapreduce.ImportTsv importtsv -Dimporttsv.columns = HBASE_ROW_KEY,f:count wordcount word_count.csv **我試過這個命令,但顯示下面的異常: **錯誤:沒有指定列。請用-Dimporttsv.columns = ... 指定用法:importtsv -Dimporttsv.columns = a,b,c ** 我只有一個columnfamily'f'。我使用的命令有什麼問題嗎? – Neethu 2014-09-24 20:37:04

+0

請檢查語法,你已經在org.apache.hadoop.hbase.mapreduce.ImportTsv之後指定了importtsv,你不應該這麼做 – Amar 2014-09-25 06:43:43

+0

是的。現在錯誤消失了。我已經使用批量加載從文件加載數據。謝謝:) – Neethu 2014-09-25 13:34:04