我正在從Spark 1.3.0遷移到Spark 2.1.1。 早些時候,我能夠在Java中使用的火花1.3.0創建SparkContext如下:「在同一個JVM檢測到多個運行SparkContexts」如何遷移多個SparkContexts處於活動狀態的Spark應用程序?
SparkConf conf = new SparkConf().setAppName(dsp.getAppName()).setMaster("local").set("spark.driver.allowMultipleContexts", "true");
JavaSparkContext java_sc = new JavaSparkContext(conf);
但是我得到錯誤和「org.apache.spark.SparkException: Failed to get broadcast_0_piece0 of broadcast_0"
有人可以幫助我走出
@ Ankur100如果它適合您,請接受答案。我和社區會很感激。謝謝。 –
非常感謝你的回答Jacek。我解決了我的問題,因爲該解決方案適用於我的案例。 如果將來遇到問題,我也會嘗試您的方法。 – Ankur100