0
我有一個系統,其中REST API(Flask)使用spark-sumbit將作業發送到運行正常的pyspark。如何使火花同時運行工作中的所有任務?
由於各種原因,我需要spark來同時運行所有任務(即,我需要設置executors的數量=運行時的任務數量)。例如,如果我有20個任務,只有4個內核,我希望每個內核執行5個任務(執行程序),而不必重新啓動火花。
我知道我可以在啓動spark時設置執行程序的數量,但我不想這樣做,因爲spark正在執行其他作業。
這是否可以通過解決方法來實現?
每一項工作可以有它自己的配置和作業提交參數一次不能修改。 –
爲什麼靜態配置爲什麼不使用'spark.dynamicAllocation.enabled'動態分配資源? –