2015-04-02 53 views

回答

5

不要忘記將含有代碼的胖JAR添加到上下文中。

val conf = new SparkConf() 
    .setMaster(...) 
    .setAppName(...) 
    .setJars("/path/to/code.jar") 
val sc = new SparkContext(conf) 
2

只要你有一個主機和可用的工作開始了,你應該可以,如果你在你的Java應用程序如下:

String master = "spark://IP:7077"; //set IP address to that of your master 
String appName = "Name of your Application Here"; 
SparkConf conf = new SparkConf().setAppName(appName).setMaster(master);; 
JavaSparkContext sc = new JavaSparkContext(conf); 

我能夠從內部的IntelliJ是用來運行JUnit測試JavaSparkContext而不必使用spark-submit腳本。雖然我在DataFrame上執行操作時遇到了問題(不確定是否與此相關)。

+0

我已經做了同樣的事情,但沒有運氣。如果我使用spark-submit來運行它,那麼它的工作原理是完美的。您是否試圖執行一些轉換? @insomniak – 2015-04-03 04:09:22

+0

對我來說,它提供這些選項時工作:-Dspark.driver.host = -Dspark.driver.port = 50000 – 2016-09-29 06:33:13

+0

我可以請一個Java代碼來運行一個火花應用程序。 – Nandakishore 2017-03-24 03:30:46

相關問題