我第一次使用spark。我已經在具有10個節點的羣集上安裝了Hadoop 2.7。在我的主節點,以下是流程運行:如何在10個節點集羣上運行Spark SqlSql數據庫
[email protected]:~$ jps
20102 ResourceManager
19736 DataNode
20264 NodeManager
24762 Master
19551 NameNode
24911 Worker
25423 Jps
現在,我想寫星火SQL以1 GB的文件,這是在HDFS已經存在做了一定的計算。
如果我進入火花貝殼我的主節點上: spark-shell
,並編寫以下查詢,將它只是在我的主機上運行,還是會使用所有10個節點的工人呢?
scala> sqlContext.sql("CREATE TABLE sample_07 (code string,description string,total_emp int,salary int) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TextFile")
如果不是,我需要做些什麼才能使我的Spark Sql使用完整羣集?
取決於您的Spark環境是如何設置的。 – morfious902002
Hi @ morfious902002: 我使用下面的鏈接進行設置。 https://www.quora.com/How-do-I-install-Apache-Spark-on-Yarn-Cluster –