2016-04-15 62 views
-2

有沒有什麼辦法可以在單個節點上安裝和使用沒有Hadoop/HDFS的Spark?我只想嘗試一些簡單的例子,我想盡可能保持輕量級。單節點獨立Spark?

回答

1

是的,這是可能的。 但是它需要Hadoop的庫之下,所以下載預建的火花等的任何版本,

wget http://www.apache.org/dyn/closer.lua/spark/spark-1.6.0/spark-1.6.0-bin-hadoop2.4.tgz 
tar -xvzf spark-1.6.0-bin-hadoop2.4.tgz 
cd spark-1.6.0-bin-hadoop2.4/bin 
./spark-shell 
+1

@AliShakiba,不要向下票,如果你不知道的火花在首位的工作原理。這裏有一些讓你開始的東西,https://issues.apache.org/jira/browse/SPARK-10944 –

相關問題