cloudera

    1熱度

    2回答

    我試圖從Oracle加載數據到Hive作爲實木複合地板。每次我加載一個包含日期/時間戳列的表格來配置單元時,它都會自動將這些列轉換爲BIGINT。是可以加載時間戳/日期格式配置單元使用sqoop和作爲parquet文件? 已經嘗試在配置單元中首先創建表,然後使用impala來LOAD DATA INPATH實木複合地板文件。 還是失敗,錯誤 「文件XX沒有列XX列不兼容的架構實木複合地板: TIM

    0熱度

    1回答

    我想要生成Sqoop命令從Mysql導入RDBMS表。我有sqoop命令存儲數據庫,然後Oozie工作流程使用此命令創建。我現在手動編寫Sqoop命令。 有沒有一種方法可以創建SqoopOptions對象,設置值並從對象中生成sqoop查詢?

    0熱度

    2回答

    SPARK HISTORY SERVER上的CPU使用率爲100%,這是火花歷史記錄服務器上的正確行爲? 我用CDH 5.4.3

    0熱度

    3回答

    我正嘗試使用sqoop中的--query選項從SQL Server導入數據。我關心的是,我們如何聲明在SQL Server中使用--query使用哪個模式。 我的腳本: sqoop \ --options-file sqoop/aw_mssql.cfg \ --query "select BusinessEntityId, LoginID, cast(OrganizationNode as s

    1熱度

    1回答

    我將Accumulo添加到我的Cloudera羣集中。 我應該如何分配角色。 我有4個服務器當前正在運行。 HDFS名稱節點,HDFS名稱節點,HDFS平衡器,活動監視器,Cloudera管理服務,Spark網關,Spark歷史記錄服務器,Yarn作業歷史記錄服務器,Yarn資源管理器,Zookeeper服務器 3服務器:HDFS數據節點,Kafka代理,Spark網關,Yarn節點管理器,Zoo

    1熱度

    2回答

    我想從java程序中使用Spark SQL,其中pom.xml中的依賴關係指向Spark版本1.6.0。下面是該程序 package spark_test; import java.util.List; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; import

    0熱度

    2回答

    我試圖通過java程序訪問Hive表,但看起來像我的程序沒有在默認數據庫中看到任何表。然而,我可以看到相同的表格,並通過spark-shell查詢它們。我已經在spark conf目錄中複製了hive-site.xml。唯一的區別 - 火花shell運行火花版本1.6.0我的Java程序在運行,其中星火2.1.0 package spark_210_test; import java.util

    -1熱度

    1回答

    從Cloudera的網關節點開始H2O,它回來了以下內容:對 Open H2O Flow in your web browser: http://127.0.0.1:54321 命令的/ etc少/ hosts顯示以下內容(我需要它使用10.x.2xx.2x或DNS名稱) 127.0.0.1 localhost localhost.localdomain localhost4 localhos

    0熱度

    1回答

    任何人都可以讓我知道,如果Cloudera 5.7或更高版本中有卡夫卡或其他版本?如果包括在哪裏獲得文檔 非常感謝!

    0熱度

    1回答

    我想在Hadoop上對Cloudera Impala中的python impyla查詢中的字符進行轉義,但似乎沒有任何工作..模板語法不能轉義(對於數據庫API ..) cursor.execute('SELECT * from table where col1 = %s', tuple(["John's unescaped string"])) 產生一個錯誤。 即使 cursor.execu