2016-12-28 81 views
-2

我想用SparkSession使用最新的Spark api。對象SparkSession不是包org.apache.spark.sql的成員

雖然我正在導入包,但是我的eclipse在附件中顯示錯誤顯示。

我正在使用2.10.6 scala編譯器。

請幫我解決這個問題。 Maven中指定

pom code

+2

你**火花SQL **和**火花核心**版本不一致。嘗試使用cdh或apache。 – mrsrinivas

+2

@mrsrinivas和 - 它們都很舊,因此不包含新的'SparkSeesion' - 使用2.0.0或更高版本 –

回答

相關問題