hive

    0熱度

    1回答

    我已經在我的羣集上安裝了presto以執行一些查詢。我有4個節點和16GB的RAM。我已經按照步驟來配置presto,但是當我運行一個查詢時,它會比永遠相同的查詢花費更多的時間。所以我想我的配置有問題。 我想也許我在我的node.properties文件屬性中的錯誤值 query.max-memory和query.max-memory-per-node。考慮到每個節點有16GB內存,這些屬性的正確

    0熱度

    1回答

    我有沒有table1分區鍵,我想創建一個table2,用相同的模式table1,但設置一列「datestr」作爲分區鍵。我如何編寫CREATE TABLE LIKE查詢來執行此操作? table1: datestr, userID, transaction, balance table2 (set datestr as partition key): datestr, userI

    0熱度

    1回答

    我已經創建了一個外部表,如下面中間一列: create external table if not exists complaints (date_received string, product string, sub_product string, issue string, sub_issue string, consumer_complaint_narrative string, stat

    1熱度

    1回答

    我第一次嘗試是: CREATE TABLE t1 ( a string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE ; 但是,其結果是: CREATE TABLE t1 ( a string) ROW FORMAT DELIMITED

    0熱度

    1回答

    我正在進行一些事務分析。 我希望看到每筆交易數量的交易量。 下面是數據和結果通緝。 table name: trans_cust store_id trans_id product qty A 123 milk 1 A 123 chocolate 1 A 123 candy 1 A 456 milk 4 A 789 candy 1 B 321 ch

    1熱度

    2回答

    我正在開發Hive查詢使用R文件的作業,這些文件分佈在羣集上以便在每個節點上運行。 就像是: ADD FILES hdfs://path/reducers/my_script.R SET hive.mapred.reduce.tasks.speculative.execution=false; SET mapred.reduce.tasks = 80; INSERT OVERWRITE T

    0熱度

    2回答

    嘗試從2.1.0升級蜂房2.3.0獲得以下錯誤 (其實升級EMR 5.7.0至5.8.0) ​​ Notice: /Stage[main]/Hadoop_hive::Init_metastore_schema/Exec[init hive-metastore schema]/returns: Error: Duplicate key name 'PCS_STATS_IDX' (state=4200

    0熱度

    2回答

    我有許多用戶和日期時間列。我想知道每個用戶每年和每個月的最小值和最大值? name date Income Expense Vijay 12-10-2017 10 8 Vijay 16-04-2017 25 12 year(date) as Y_year, month(date) as M_Month, 我嘗試下面的代碼,但沒有用任何 min(Income)over

    11熱度

    2回答

    我使用的是HDP-2.6.0.3,但我需要Zeppelin 0.8,所以我將它作爲獨立服務安裝。當我運行時: %sql show tables 我沒有得到任何迴應,當我運行Spark2 SQL命令時,我得到'table not found'。表可以在0.7是齊柏林是HDP的一部分。 任何人都可以告訴我我缺少什麼,對於Zeppelin/Spark來看蜂巢? 步驟我執行創建zep0.8如下: m

    0熱度

    1回答

    如何使用spark將數據從Oracle數據庫導入到dataframe或rdd,然後將此數據寫入一些配置單元表? 我有相同的代碼: public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("Data transfer test (Oracle -> Hive)").setMa