hive

    0熱度

    1回答

    我期待能夠創建一個表,其中包含所有日期(含)之間的最小和最大日期從另一個表。見簡單的查詢下面讓這些日期 -- Get the min and max dates from the table select min(date(sale_date)) as min_date, max(date(sale_date)) as max_date from TABLE; 我花了最後一個小

    -1熱度

    2回答

    我使用HIVE進行查詢,我喜歡查詢所有列並基於不同的特定列。 例如我有表a; StudentID StudentName, StudentBirsthDay, StudentPassport; StudentAge; StudentRegisted; .... .... 我想查詢所有的學生都具有獨特的StudentID,從 選擇*,不同的(StudentID); 我該如何編寫查詢

    1熱度

    2回答

    我正在嘗試編寫一個sql查詢以查找每個國家/地區中最受歡迎的藝術家。當紅藝人是一個具有等級的最大數> = 8 下面是表結構, describe album; albumid string album_title string album_artist string` describe album_ratings; us

    1熱度

    1回答

    我正在使用配置單元,我需要以json格式添加數據。我使用https://github.com/rcongiu/Hive-JSON-Serde庫。它從文件加載配置單元中的數據。 ~$ cat test.json {"text":"foo","number":123} {"text":"bar","number":345} $ hadoop fs -put -f test.json /use

    2熱度

    1回答

    我有帶spark(1.6.1),hdfs和hive(2.1)的紗線簇。直到今天,我的工作流程都可以正常工作幾個月(沒有任何代碼/環境變化)。我開始像這樣得到錯誤: org.apache.hive.com.esotericsoftware.kryo.KryoException: Encountered unregistered class ID: 21 Serialization trace:

    0熱度

    3回答

    刪除^ A和\ n我得到一個臨時table.I的數據是從臨時表中選擇所有列的數據,並插入到基座table.After插入到基表文件看起來像下面。 val1^Aval2^Aval3^A\N^Aval4^A\N 但我需要的數據是這樣的。 val1 val2 val3 val4 ^必須從文件中刪除,\ N應該用空格替換。 我想在蜂巢中實現這一點,任何幫助都很感激。

    0熱度

    1回答

    我需要在數組中逐列左外連接2個表。 表一個模型: 結構ID - 串 IPS - 串 表2模型的陣列: - 串 主機名 IP - 字符串 我希望的結果是在格式: 號,IP,主機名(如果存在) 所有的在第一表的陣列,其具有相應的IP在所述第二表中的IP需要匹配。 我不確定如何開始,歡迎任何想法或參考。

    1熱度

    1回答

    有人可以解釋一下使用HCatalog在pigScript中使用蜂巢的哪個文件格式是有效的。 我想知道哪些配置單元文件格式將是有效的,因爲目前我們有一個基於日期的分區配置單元表和基礎文件是一個順序文件。 80天的數據讀取創建了大約70,000個非常龐大的映射器。試圖改變地圖拆分大小爲2GB,並沒有減少很多。 因此,而不是順序文件尋找其他選項,這將減少映射器的數量。每個數據的數據大小爲9GB。 有任何

    0熱度

    2回答

    最近我們升級到Spark 1.6並嘗試將SparkQL用作Hive的默認查詢引擎。 Spark Gateway角色與HiveServer2添加在同一臺計算機上,啓用了Spark On Yarn Service。然而,當我運行一個查詢類似以下內容: SET hive.execution.engine=spark; INSERT OVERWRITE DIRECTORY '/user/someuser

    0熱度

    1回答

    我的基礎數據使用HIVE輸出格式(org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat) 嘗試使用以讀取該數據寫入本地Java地圖降低 byte[] b = value.getBinary(value.getType().getFieldIndex(field), 0).getBytes(); HiveDecimal hd