2017-06-01 93 views

回答

1

這是因爲您使用Spark 1.x來編譯代碼,但在Spark 2.x羣集中運行您的應用程序。您可以更新pom.xml以使用Spark羣集的相同版本,並且可能還需要更新代碼,因爲2.x和1.x不兼容。

+1

您如何知道羣集版本? –

+0

我已經使用此文件spark-2.1.1-bin-without-hadoop.tgz安裝了Spark 2.1.1,然後,我已將Spark與Hadoop安裝連接,並在/ usr/local/spark中設置spark-env.sh文件/ conf(我遵循這個:https://spark.apache.org/docs/latest/hadoop-provided.html)。 我可以在pom.xml中更改這部分嗎? org.apache.spark 火花core_2.10 2.1.1它可能是工作? – majitux

+1

@ cricket_007打印'SparkContext.version' – zsxwing