我試圖在Windows 10上安裝Apache Spark。我下載了Spark和winutils.exe,設置了SPARK_HOME,HADOOP_HOME並更新了PATH變量以包含Spark bin路徑。但是,當我運行spark-shell時,我得到下面的錯誤。有什麼問題?在Windows上運行Spark時出錯
C:\tools\spark-2.1.1-bin-hadoop2.7\bin>spark-shell
'""C:\Program' is not recognized as an internal or external command,
operable program or batch file.
您的路徑中有空格 –
是的,我在PATH中的C:\ Program Files \ Java \ jdk1.8.0_92 \ bin中有空格,那是問題所在?我應該追加引號嗎? – ps0604
它看起來像引號可能會幫助,無論是太多或兩個。你可以添加安裝位置,以及SPARK_HOME,HADOOP_HOME和PATH的確切值到你的問題。Spark-shell腳本爲SPARK_HOME添加了引號,所以它可能值得在沒有引號的情況下嘗試(如果你有它們的話)。 – GregHNZ