2017-06-02 86 views
0

我試圖在Windows 10上安裝Apache Spark。我下載了Spark和winutils.exe,設置了SPARK_HOME,HADOOP_HOME並更新了PATH變量以包含Spark bin路徑。但是,當我運行spark-shell時,我得到下面的錯誤。有什麼問題?在Windows上運行Spark時出錯

C:\tools\spark-2.1.1-bin-hadoop2.7\bin>spark-shell 
'""C:\Program' is not recognized as an internal or external command, 
operable program or batch file. 
+0

您的路徑中有空格 –

+0

是的,我在PATH中的C:\ Program Files \ Java \ jdk1.8.0_92 \ bin中有空格,那是問題所在?我應該追加引號嗎? – ps0604

+0

它看起來像引號可能會幫助,無論是太多或兩個。你可以添加安裝位置,以及SPARK_HOME,HADOOP_HOME和PATH的確切值到你的問題。Spark-shell腳本爲SPARK_HOME添加了引號,所以它可能值得在沒有引號的情況下嘗試(如果你有它們的話)。 – GregHNZ

回答

2

嘗試了很長一段時間,並通過不同的物品去,這個問題涉及到設置環境變量correctly.Things其實就是簡單的,只是需要得到樹立正確之後我想通了看到你的火星殼工作,下面是提到的步驟,以正確和工作。

  1. (1.7+)在「C」目錄或目錄中的空間我們不是有完整的路徑之間下安裝Java。就像我在「C:/ Java」路徑下安裝了Java 1.8版本一樣。但是,如果您已經在「Program Files」/「Program Files(86)」下安裝了java,則需要將JAVA_HOME和PATH變量放在雙引號中,如JAVA_HOME =「C:\ Program Files \ Java」,PATH =「 JAVA_HOME%\ BIN%」。

    C:\用戶\ ankitthakur> Java的版本 Java版本 「1.8.0_131」 的Java(TM)SE運行時環境(建立1.8.0_131-B11) 爪哇熱點(TM)64位服務器VM (構建25.131-b11,混合模式)

  2. 爲了一致性,在「C:\ Scala」下安裝Scala,或者您可以選擇任何其他目錄。設置SCALA_HOME並添加到PATH變量中。

    C:\用戶\ ankitthakur>階-version Scala代碼轉輪版本2.11.8 - 版權2002年至2016年,LAMP/EPF

  3. 下安裝SBT 「C:\ SBT」 和類似設置SBT_HOME和PATH。

  4. 從下面的鏈接下載Spark。請記得下載Hadoop的預建版本,否則你需要建立你的下載源代碼,你可以通過maven來做到這一點,如果你已經安裝,否則下載並安裝它。將它放在「C:\ Spark」目錄下以保持一致性並設置SPARK_HOME和PATH。 Donwload路徑http://spark.apache.org/downloads.html

  5. 我們在這裏做了,但是在Windows系統中,我們得到的錯誤,如果我們不同時運行火花腳本安裝winutils.exe文件。因此,處理這種情況從下面提到的路徑下載並放在「C:\ Winutils \ bin」目錄下(我們需要創建這個目錄)並設置HADOOP_HOME和PATH變量。

finalllyyyy !!!!!,我們在這裏完成,它似乎很長,但它並不真正相信我,但確保你有一切正常到位。請在我的機器上的環境變量快照上有一個掠奪。 environment variables set for setting up spark.

0

我有同樣的問題。只需將該spark文件夾粘貼到C:中並在環境變量中指定路徑即可。它應該工作。

相關問題