hortonworks-data-platform

    0熱度

    1回答

    將kerberized Hortonworks Cluster從2.5.3升級到2.6.1後,所有服務(hdfs,hive,spark,zookeeper等)都無法通過Kerberos獲取憑據,但出現以下錯誤: >>>KRBError: sTime is Wed Jun 14 11:52:10 CEST 2017 1497433930000 suSec is 825974

    0熱度

    1回答

    我試圖在CentOS 6(Hortonworks HDP物理集羣,4個節點)上安裝Pydoop(https://crs4.github.io/pydoop/installation.html)。我的主站上安裝了Python 3.4和Python 2.6。當我把它使用Python 3安裝它顯示了語法錯誤象下面這樣: [[email protected]]# python3 setup.py buil

    0熱度

    1回答

    我試圖產生與蜂巢一些拼花文件,做到這一點我在蜂巢裝一個普通蜂巢表從一些.tbl文件,throuh此命令: CREATE TABLE地區( R_REGIONKEY BIGINT, R_NAME STRING, R_COMMENT STRING) 行格式DELIMITED FIELDS TERMINATED BY '|' STORED AS TEXTFILE location'/ tmp/tpch-g

    0熱度

    1回答

    我使用HDP 2.5.3,與Isilon存儲作爲數據節點啓動服務,Ambari顯示如下錯誤,每當我要開始紗線或蜂房 self.util.run_command(self.main_resource.resource.target, 'SETPERMISSION', method='PUT', permission=self.mode, assertable_result=False) F

    0熱度

    1回答

    運行PHP我試圖設計我的前端爲我的後端服務,其中包括Hadoop和蜂巢。我成功地在Hortonworks 2.4的8085端口上打開了XAMPP服務器。爲此,我必須停止正在運行的httpd服務。我在編寫與mySQL服務交談的php代碼方面也取得了成功。然而,一些令人驚訝的事情,我已經注意到馬上是,在燒製的Hadoop或蜂房或ambari命令,這就是我得到 - -bash:Hadoop的:命令未找到

    0熱度

    1回答

    安裝問題,我通過Ambari 2.5.0.3上SUSE11sp3安裝HDP 2.6,最後一步我的一個節點發生故障見面,似乎發生在「DRPC服務器安裝」的任務,這裏是日誌: stderr: /var/lib/ambari-agent/data/errors-603.txt Traceback (most recent call last): File "/var/lib/a

    0熱度

    1回答

    我有一個用shell編寫的框架,它調用多個hql文件。 蜂巢-f file1.hql 蜂巢-f file2.hql 蜂巢-f file3.hql 每個蜂箱-f命令創建新的會話,並採取的時間來執行很多命令。很多時候,這些文件中的實際查詢會很快運行,但大部分時間都用於創建新會話。 Deoe配置單元支持會話輪詢/或任何其他機制在hql文件中創建一個會話並在所有其他hive -f調用期間重用它?

    0熱度

    1回答

    這是我的Spark應用程序的相關部分,我使用appName來設置應用程序的名稱。 import org.apache.spark.sql.SparkSession object sample extends App { val spark = SparkSession. builder(). appName("Cortex-Batch"). // <-- appl

    0熱度

    1回答

    我正在通過Hive發佈版本,並觀察Hive版本的模式似乎有點線。 在2015年6月27日的1.2.1發佈之後,2016年2月15日的下一個版本爲2.0,版本將繼續。再次於2017年4月7日,即最近又發佈了Hive 1.2.2版本。我沒有明白爲什麼1.2.2而不是2.x.y. 有人可以解釋一下。 在此先感謝。

    0熱度

    1回答

    通常在hadoop環境中,您需要運行命令或腳本或將文件複製到羣集中的所有節點。 什麼是有效的方法做到這一點(無需單獨ssh到每個節點)? 例子: When upgrading Ambari, you are required to run many commands on all nodes where a certain component is installed - e.g. Infra,